Samsung’s faked Moon photos are a small step for smartphone photography — not a giant leap.
삼성의 가짜 달 사진은 스마트폰 사진의 작은 발걸음이지 큰 도약이 아닙니다.
삼성전자 갤럭시 S21 울트라가 출시되면서 진짜 달 사진이 아니라 합성이라는 논란과 함께 '달고리즘'이라는 신조어를 만들었던 달사진 논란이 다시 새롭게 화두가 되었습니다. 최근 S23 울트라가 출시되면서 100배까지 확대할 수 있는 '스페이스 줌' 기능은 트위터의 CEO인 일론 머스크(Elon Musk)까지 "WOW" 라는 감탄사로 트위터에 댓글을 달면서 화제에 오르기도 했습니다.
레딧(Reddit)이라는 미국의 소셜뉴스 및 토론 웹사이트에서 사용자 u/ibreakphotos 는 사진에서 '진실'이란 무엇인가?라는 질문으로 달 사진 몇 장을 게시했습니다.
문제의 이미지는 의도적으로 흐린 달 사진을 갤럭시 S23 울트라로 찍었더니 깨끗한 달 사진을 보여줍니다. 선명해 보이는 달 사진이 잘 나온 사진 같지만 실제가 아니라는 것입니다. 일론 머스크를 비롯한 대부분의 사람들이 실제 달 사진으로 착각한다는 점 입니다. 삼성 스마트폰은 합성된 이미지가 아니라 카메라로 촬영된 이미지를 정교한 처리과정을 거친 이미지라고 합니다. 이를 사진이라고 부르는 것이 과장된 것처럼 들릴 수도 있지만, 스마트폰 카메라가 하고 있는 모든 작업을 고려할 때 실제로는 뭐라고 해야 할 지 모르겠습니다.
사진출처) Reddit의 u/ibreakphotos | 의도적으로 흐린 달 사진(왼쪽) / 이를 갤럭시 S23 Ultra로 촬영한 사진
삼성전자의 인공지능과 관련된 기계 학습은 낯설지 않습니다. 지난 몇 년 동안 '스페이스 줌'이라는 이름의 AI는 줌 기능과 함께 향상되어 왔습니다. 광학 망원 렌즈에서 얻은 데이터를 스페이스 줌은 빠르게 연속으로 캡처한 여러 프레임의 사진과 결합하여 피사체의 이미지를 훨씬 더 선명하게 만듭니다.
이러한 방식은 삼성이 달 사진 이외의 이미지 처리 알고리즘과는 약간 다르다고 볼 수 있습니다. 불안정한 손으로 여러 블록 떨어진 곳에서 촬영한 건물의 가장자리를 선명하게 만들 수는 있지만, 처음부터 없었던 건물 측면에 창문을 추가하지는 않았습니다.
달 사진은 다른 경우로 ibreakphotos의 테스트에서 삼성의 추가 처리가 수행되는 방식을 확인할 수 있었습니다. 스페이스 줌의 알고리즘을 확인하기 위해 의도적으로 흐릿한 달의 이미지를 카메라 앞에 놓고 화면에 표시하고 사진을 찍었습니다. 이미지 처리 결과는 흐리게 처리되어 원본 사진에서 가져올 수 없었던 세부 정보를 보여줍니다. 삼성전자의 알고리즘은 선을 추가하고 달이 진짜같이 보이도록 유사한 질감을 넣는 것입니다. 원본 이미지에서 흰색으로 잘린 영역 대대적인 복사 및 붙여넣기 가 아니라 보이는 것을 단순히 향상시키는 것도 아닙니다.
삼성전자는 '인위적인 합성이 아니다'라고 처음 논란이 일 때 부터 선을 그었습니다. 정확하게 'AI 복원기술'을 통해 사용자의 눈에 보이지 않던 부분까지 표현한 것 아라고 합니다.
"하지만... 이것이 나쁜건가요?"라고 반문할 수도 있습니다.
스마트폰 카메라는 이미 여러분이 좋아하는 사진을 만들기 위해 많은 비하인드 기술이 사용되고 있었다는 점 입니다. 뷰티 모드와 장면 최적화 기능을 끄더라도 사진의 이미지는 여전히 얼굴을 밝게 하고 모든 올바른 위치에서 미세한 세부 사항이 나타나도록 조정됩니다. 최신 구글 픽셀(Google Pixel) 스마트폰에서는 페이스 언브러(Face Unblur)를 사용하여 피사체의 얼굴이 움직이면 약간 흐려지면 기계 학습을 사용하여 초광각 카메라의 이미지와 기본 카메라의 이미지를 결합하여 선명한 최종 이미지를 보여줍니다.
두 명의 어린아이가 동시에 카메라를 바라보는 사진을 찍어 보셨나요? 달 사진을 찍는 것보다 더 어렵다고 해도 과언이 아닙니다. 이때 페이스 언블러 기능을 사용하면 훨씬 쉬워집니다. 이는 설정에서 활성화하는 기능이나 카메라 앱에서 선택하는 모드가 아니라 백그라운드에서 바로 작동하는 기능입니다.
디지털 카메라로 찍은 모든 사진이 작은 컴퓨터를 이용한 약간의 추측을 기반으로 한다는 것입니다. 이미지 센서의 개별 픽셀에서 부터 추측은 시작됩니다. 픽셀의 각각에는 녹색, 빨간색 또는 파란색 필터가 있습니다. 녹색 컬러 필터가 있는 픽셀은 어떤 것이 얼마나 녹색인지만 알려주지만, 알고리즘은 인접한 픽셀 데이터를 사용하여 빨간색과 파란색도 잘 추측합니다. 색상 데이터를 모두 정리하고 나면 사진을 처리하는 방법에 대해 더 많은 판단을 내려집니다.
매년 스마트폰 카메라가 업그레이드 되면서 여러분이 촬영하는 장면과 원하는 모습을 더 스마트하게 추측하려고 노력합니다. 지난 5년 동안의 모든 iPhone은 사진에서 얼굴을 식별하고 더 돋보이도록 밝게 만들고 있었습니다. 만약 애플이 갑자기 이러한 알고리즘 사용을 중단한다면 모든 사용자가 불만을 넘어 폭동을 일으킬지도 모릅니다.
애플만이 아닙니다. 모든 최신 스마트폰 카메라가 이러한 작업을 수행하고 있습니다. 가장 친한 친구의 사진인가요? 그것을 밝게하고 눈 밑의 그림자를 부드럽게 만들 수 있으며, 음식 접시인가요? 음식이 먹음직스럽게 보이도록 채도를 높여줍니다. 이러한 일들은 모두 백그라운드에서 알아서 일어나는 일이고 우리는 이런 것을 좋아합니다.
저녁 식사가 매력적으로 보이도록 채도를 높이는 대신에 이미지에 파슬리 몇 개를 추가하는 알고리즘은 이상할까요? 사람에 따라서 '달고리즘' 혹은 '문게이트'와 이러한 알고리즘이 공정한 비교대상이라고 생각되지 않을 수도 있습니다. '달'은 '음식'과 같은 장르의 사진이 아닐 수 있습니다. 그렇다고 S23울트라가 '올해의 최고 천체사진' 상을 수상할 위험은 없을 것 같습니다.
삼성은 달 사진 처리로 사진이 잘찍히는 스마트폰 이라는 명성을 일시적으로 얻을 수는 있지만, 스마트폰 사진에 대한 진실공방은 앞으로 더 해질 수도 있습니다. 미드저니(Midjourney)에서 이미지 파일을 입력하면 인공지능이 그림을 생성하는 것 처럼 앞으로 스마트폰의 카메라는 그냥 이미지 파일 입력도구가 될 수도 있습니다. 어찌 되었건 Reddit의 ibreakphotos는 스마트폰을 이렇게 홍보하면 안된다고 지적합니다.
그렇다고 스마트폰 카메라가 수년동안 해 온 일을 범죄라고 할 수도 없을 것 같긴 합니다. 뭐가 진실이고 뭐가 거짓인지는 중요하지 않으며, 사람은 그냥 보고 싶은 것만 보는 '확증편향' 속에서 살아가고 있고, 살아가게 될 것 같습니다.
사진출처) Reddit의 u/ibreakphotos | 의도적으로 만든 달의 네모와 갤럭시 S23 울트라로 촬영한 사진 및 확대 사진
※ 기사 내용 참조
[The Verge] Samsung’s Moon photos are fake — but so is a lot of mobile photography | By ALLISON JOHNSON | Mar 15, 2023, 5:00 AM GMT+9 | https://www.theverge.com/2023/3/14/23640006/samsung-s23-moon-photo-controversy-space-zoom-computational-photography
[Reddit] LAST update on the Samsung moon controversy, and clarification | r/Android에 올라온 u/ibreakphotos 의 글 | https://www.reddit.com/r/Android/comments/11r7dwk/last_update_on_the_samsung_moon_controversy_and/
Microsoft 365 문서는 이제 'Copilot' 라는 AI 비서가 작성합니다. (0) | 2023.03.17 |
---|---|
아이폰은 Poe앱으로 인공지능 챗봇 GPT-4와 Claude+를 구독하고 사용할 수 있습니다. (1) | 2023.03.16 |
애플의 에어팟은 간단한 설정으로 음질이 향상됩니다. (2) | 2023.03.14 |
애플 CEO 팀 쿡, 혼합현실(MR) 헤드셋 연내 출시 명령 (0) | 2023.03.13 |
애플 뮤직 클래식 앱, 고해상도 무손실로 클래식음악을 들을 수 있지만 한국은 제외 (0) | 2023.03.10 |
댓글 영역