본문 바로가기
카테고리 없음

[아폴로의 눈]스마트폰 카메라의 비밀 (CMOS 탄생, 화소 함정, 야간 촬영)

by 정보한칸 2026. 4. 5.

스마트폰 카메라의 비밀
스마트폰 카메라의 비밀

"내 손 안의 셀카가 사실은 화성 탐사선의 눈이었다? 90년대 NASA 우주선 다이어트 작전에서 탄생한 CMOS 센서의 반전 비화부터 2억 화소 마케팅에 속지 않는 법, 야간 촬영의 핵심인 BSI 기술까지. 우주 공학의 시선으로 분석한 스마트폰 카메라의 모든 것을 공개합니다."

새 스마트폰을 살 때 가장 먼저 뭘 봤는지 생각해 보셨습니까? 저는 솔직히 화소 수였습니다. '2억 화소면 뭔가 엄청난 거겠지' 싶었는데, 막상 써보니 어두운 카페에서 찍은 사진이 오히려 예전 폰보다 더 지저분하게 나왔습니다. 그 이유를 파고들다가 뜻밖의 출발점을 만났습니다. 바로 화성이었습니다.

CMOS 센서는 어떻게 탄생했는가?

CMOS 센서방식
CMOS 센서 방식

1990년대 NASA 제트추진연구소(JPL)에서 일하던 에릭 포섬(Eric Fossum)은 심각한 딜레마를 안고 있었습니다. 화성 탐사선에 카메라를 실어야 하는데, 당시 주류이던 CCD(Charge-Coupled Device) 방식의 센서는 너무 무겁고 전력을 지나치게 많이 소모했습니다. 여기서 CCD란 빛을 받은 픽셀들의 전하를 한 방향으로 이동시켜 한꺼번에 읽어내는 방식으로, 신호 왜곡이 적고 색 표현이 뛰어나다는 장점이 있었습니다. 그러나 우주선에서는 1g의 무게와 1mW의 전력도 생사가 달린 자원입니다.

 

포섬이 선택한 대안이 CMOS(Complementary Metal-Oxide-Semiconductor) 방식이었습니다. CMOS란 각 픽셀마다 신호를 증폭하는 회로를 개별적으로 내장해, 데이터를 그 자리에서 처리하는 방식을 말합니다. 덕분에 시스템 전체 크기를 획기적으로 줄이고 전력 소비를 기존의 10분의 1 수준으로 낮출 수 있었다고 JPL은 밝히고 있습니다(출처: NASA Jet Propulsion Laboratory).

제가 이 대목에서 가장 흥미롭게 느낀 건 이겁니다. 성능을 높이려고 만든 기술이 아니었다는 점입니다. 순전히 '무게를 줄이겠다'는 절박함에서 나온 기술이 결국 세상에서 가장 많이 쓰이는 카메라 기술이 됐습니다. 극한의 조건이 혁신을 만든다는 말이 괜히 나온 게 아니었습니다.

당시에는 CMOS가 CCD보다 노이즈가 많고 화질이 떨어진다는 이유로 업계의 무시를 받았습니다. 저도 CCD 방식이 색감 면에서 더 유리하다는 의견에 일부 동의합니다. 그러나 실제로 현재 스마트폰에 탑재된 CMOS는 그 시절 기술과 비교하면 완전히 다른 물건입니다. BSI(Back-Illuminated Sensor), 즉 배선을 센서 후면으로 배치해 빛을 받아들이는 면적 자체를 키운 구조 덕분에, 어두운 환경에서의 수광률이 크게 향상됐습니다.

화소 수가 전부가 아닌 이유

화소 수가 전부가 아닌 이유
화소 수가 전부가 아닌 이유

스마트폰 광고에서 '2억 화소'를 외치는 문구를 볼 때마다 저는 조금 피로함을 느낍니다. 제가 직접 써봤는데, 높은 화소가 반드시 좋은 사진을 보장하지 않는다는 것을 몸으로 배웠기 때문입니다.

이유는 물리학에 있습니다. 센서의 판형(Sensor Size), 즉 센서의 실제 면적이 커지지 않은 상태에서 화소 수만 늘리면, 개별 픽셀의 크기가 그만큼 작아집니다. 픽셀이 작아지면 빛을 받아들이는 면적이 줄어들고, 빛이 부족한 환경에서는 센서가 신호를 강제로 증폭하게 됩니다. 이때 발생하는 전기적 간섭이 바로 노이즈입니다. 어두운 곳에서 찍은 사진에 생기는 그 지저분한 얼룩말입니다.

거기다 CMOS가 가진 구조적 특성도 있습니다. CMOS는 데이터를 위에서 아래로 한 줄씩 순차적으로 읽는 롤링 셔터(Rolling Shutter) 방식을 사용합니다. 롤링 셔터란 화면 전체를 동시에 촬영하는 것이 아니라 일정한 시간 간격을 두고 행(row) 단위로 읽어내는 방식으로, 빠르게 움직이는 피사체를 찍으면 사진이 사선으로 휘어져 보이는 젤로 현상(Jello Effect)이 생깁니다. 제 경험상 이건 야구나 골프처럼 빠른 동작을 찍을 때 꽤 눈에 띄게 나타납니다.

그렇다면 제조사들은 이 한계를 어떻게 극복할까요. 현재 스마트폰에 주로 탑재된 핵심 기술들을 보면 다음과 같습니다.

  • BSI(Back-Illuminated Sensor): 배선을 센서 후면으로 배치해 수광률을 극대화한 구조. 야간 사진 품질의 핵심입니다.
  • 픽셀 비닝(Pixel Binning): 인접한 복수의 픽셀을 하나처럼 묶어 빛 흡수량을 늘리고 노이즈를 줄이는 기술입니다. 삼성의 2억 화소 센서가 어두운 환경에서도 버티는 이유가 여기 있습니다.
  • ISP(Image Signal Processor): 센서가 받아들인 원시 신호를 실제 사진으로 가공하는 연산 장치입니다. 같은 센서를 써도 아이폰과 갤럭시 사진이 다르게 나오는 결정적 이유가 바로 이 ISP와 소프트웨어 보정 알고리즘의 차이입니다.
  • 글로벌 셔터(Global Shutter): 롤링 셔터의 한계를 보완하기 위해 모든 픽셀을 동시에 읽는 방식입니다. 아직 스마트폰에는 일부 기종에만 탑재되어 있습니다.

IEEE에서 발표된 이미지 센서 진화 관련 연구에서도, 단순 화소 증가보다 센서 구조 설계와 신호 처리 알고리즘의 고도화가 실질적인 화질 개선에 더 큰 영향을 미친다고 분석하고 있습니다(출처: IEEE Xplore).

다음 폰을 고를 때  실제로 확인해야 할 것들

최근 AI 보정 기술을 두고 저는 솔직히 복잡한 감정을 갖고 있습니다. 달 사진을 찍었을 때 AI가 미리 학습해 둔 달 이미지를 덧칠한다면, 그것이 내가 찍은 사진인가 아니면 AI가 그린 그림인가. 편리함은 분명하지만, 어디까지가 '촬영'이고 어디서부터가 '생성'인지의 경계가 흐려지고 있다는 느낌은 지울 수 없습니다.

그래서 다음 폰을 고를 때 화소 수 대신 확인했으면 하는 것들을 정리해 보면 이렇습니다.

  1. 센서 판형 크기: 1인치 센서처럼 판형이 클수록 빛을 많이 받아 어두운 곳에서 유리합니다.
  2. ISP 성능: 같은 하드웨어도 소프트웨어 처리 방식에 따라 결과물이 크게 달라집니다.
  3. 픽셀 비닝 지원 여부: 고화소 센서라면 야간 모드에서 픽셀 비닝이 잘 작동하는지 확인하십시오.
  4. 롤링 셔터 보정 기능: 빠른 피사체를 자주 찍는다면 글로벌 셔터 또는 전자식 보정 기능 탑재 여부를 체크하시길 권합니다.

제 경험상 이 네 가지가 실사용에서 체감 차이를 만드는 요소였습니다.

결국 지금 우리 주머니 속의 카메라는 화성의 거친 표면을 찍기 위해 고군분투했던 엔지니어들의 유산입니다. 수천억 원짜리 탐사선에 들어가던 기술이 5만 원짜리 중고폰에도 담겨있다는 사실은, 기술의 낙수 효과 중에서도 꽤 근사한 사례라고 생각합니다. 화소 수 경쟁에 지치셨다면, 이제 센서 판형과 ISP를 먼저 보는 시선으로 바꿔보십시오. 그쪽이 훨씬 정직한 답을 줍니다.

 

참고: NASA Jet Propulsion Laboratory - CMOS Sensor History (https://www.jpl.nasa.gov) / IEEE Xplore - Evolution of Image Sensors (https://ieeexplore.ieee.org)