The Future of AI in the Movie <Openheimer>

August 28, 2023

혁신의 두 얼굴, 파괴와 창조


8월 15일에 맞추어 한국에 개봉한 영화<오펜하이머>가 연일 화제입니다. 영화와 관련하여 다양한 논점과 시사점이 오고 갑니다만, 과학과 공학 베이스를 가진 저에게 가장 많은 질문을 남긴 포인트는, “과학기술 발전의 책임은 누구에게 있으며, 올바른 발전 방향은 무엇인가?”입니다.

인간의 역사에서 원자 폭탄처럼 혁신적이면서도 논쟁적인 발명품은 드뭅니다. 핵기술처럼 인류에게 재앙과 평화를 동시에 가져다준 기술의 발전은 필연적이었을까요? 아니면 필요악이었을까요? 아니 사실, 인류에게 정말로 “필요한” 기술이긴 했을까요? 극 중 오펜하이머의 말대로, 우리가 하지 않아도 누군가 했을 일이기 때문에 우리가 먼저 해야 하는 걸까요? 비단 2차 세계대전을 종결시킨 핵심적인 무기일 뿐만 아니라, 대한민국에도 기나긴 일제강점기를 끝내고 광복을 가져다준 무기였다는 점에서, 참으로 대답하기 어려운 질문 같습니다. 결정론적인 질문인 것 같기도 하고요.

최근에도 핵분열의 연쇄반응처럼 폭발적인 성장세를 보이는 산업이 있습니다. 바로 인공 지능(AI) 이지요. 오늘날, 핵기술과 AI는 모두 거대한 잠재적 이익과 동등한 위험을 제기한다는 점에서 공통적인 흐름을 가지고 있습니다. 우리는 AI와 같은 또 다른 기술 혁명의 문턱에 서 있으므로, 두 기술 간의 유사점을 살펴보는 것은 충분히 가치 있는 일입니다. 이 글은 오펜하이머의 원자폭탄과 AI 기술, 두 개혁적인 발전의 윤리적, 경제적, 환경적 측면에서의 공통점에 관해 이야기합니다. 이 관점에서 우리가 앞으로 AI 기술을 어떻게 사용해 나가야 하는지에 대한 힌트를 얻기를 바랍니다.


1. 윤리적 관점: 파괴적인 기술의 발전, 누구의 책임인가?

  • 원자 폭탄과 AI 모두 급속한 발전 속도와 파괴적인 잠재력 면에서 공통점이 있습니다. 두 기술 모두 해당 기술에 대한 논의나 규제가 적절히 갖춰지기도 전에 폭발하듯 발전했습니다. 원자 폭탄의 창조를 이끈 맨해튼 프로젝트는 인간의 창의력과 과학적 업적의 정점을 보여주었습니다. 그러나 이 프로젝트의 주요 과학자인 J. 로버트 오펜하이머는 훗날 자신이 한 일을 회고하며 "나는 이제 죽음이요, 세상의 파괴자가 되었다. (Now I am become Death, the destroyer of worlds)"라며 자책했습니다.

  • 핵 과학자들이 그들의 창조물의 결과에 대해 고민했던 것처럼, 오늘날의 AI 연구자들도 기계가 자체적으로 생각하고 결정하며 행동할 수 있는 윤리적 함의에 직면합니다. AI의 발전으로 인해 일자리가 사라지고, 인공지능에 의한 판결이 인간의 판단을 대체할 수 있는지에 대한 논란 등이 비슷한 예시이지요. OpenAI의 최첨단 언어 모델인 GPT-3는 한때 수십 년 뒤에나 가능하다고 생각되었던 마법과 같은 기술을 우리 손에 쥐어 주었습니다. 이후 속을 알 수 없는 블랙박스처럼, 설명력을 잃은 채 점점 발전하는 LLM 모델은 핵융합의 연쇄 분열과도 닮아있는 것 같습니다.

  • 할루시네이션(Hallucination)으로 불리는 LLM 모델의 주요 문제점은, 잘못 사용될 경우 가짜 정보를 퍼뜨리거나 악의적으로 오염된 데이터를 학습시키는 경우 큰 위험을 가져올 수 있습니다. 인공지능이 ‘핵 개발’ 맨해튼 프로젝트와 비견되는 이유는 개발 속도가 빠른 데다 “인간이 제어할 수 없는 무서운 기술”이 될 수 있다는 두려움 때문입니다. 인공지능의 개발 속도가 ‘기하급수적’으로 빨라져 어디까지 갈지 ‘인간’은 알 수 없습니다. 이미 연쇄반응의 스위치는 눌러졌습니다.

    [참고 자료: https://www.dbpia.co.kr/journal/articleDetail?nodeId=NODE11227160 ]


2. 경제적 관점 : 경쟁하듯이 몰리는 자본, 소외되는 분야들

  • 핵 우위를 위한 경쟁은 방위 산업에 중요한 혁신을 가져오기도 했습니다. 맨해튼 프로젝트는 1939년에 시작되었으며 정점에는 거의 130,000명을 고용하며 비용은 약 200억 달러(2021년 기준으로 약 2,400억 달러)가 사용되었습니다. 이에 따라 많은 일자리가 창출되었지만, 이는 대체로 해당 분야의 전문가나 교육을 받은 사람들에게 주어진 기회였습니다. 원자 에너지 및 핵 연구와 관련된 산업의 집중화 역시 특정 기업에 집중되는 경제적 이익이었습니다. 이러한 자본은 집중은 당시 교육과 의료와 같은 핵심 분야로부터 필수적인 자원을 분산시키는 결과를 가져왔습니다. 결과적으로, 경쟁하도록 한 곳에 집중되는 자본은 사회적 불평등을 야기할 수 있다고 볼 수 있습니다.

  • 현재, AI 우위를 차지하기 위한 전 세계적인 경쟁 역시 수십억 달러의 투자를 끌어들이고 있습니다. 이는 혁신을 촉진하지만, 다른 중요한 분야를 소홀히 할 우려도 있습니다. 예를 들어, 실리콘밸리의 AI 스타트업이 번성하는 동안, 미국의 많은 지역에서는 예산 제약으로 인해 공공 부문이 약화될 수도 있겠지요. 또한, AI가 주요 직업 분야를 자동화하고 대체할 잠재력이 있기 때문에 경제적 불평등이 더욱 심화될 위험도 있습니다. 기술 발전을 촉진하면서도 중요한 분야의 인프라와 인력을 강화하고 유지하는 균형 잡힌 접근 방식이 필요한 때입니다.

  • 혁신을 위한 파괴와 창조의 주기는 새로운 현상은 아니지만, 더 자주 그리고 더 빠르게 발생하고 있습니다. 표면적으로는 사람을 위한 효율적인 도구인 것처럼 보이지만, 장기적으로, 전 지구적인, 인류 전체의 시점에서 보았을 때, 당장 취하는 효율 이상으로 막대한 인적, 정신적, 물리적 낭비와 사회적 비용을 발생시키고 전가하는 비효율적인 메커니즘일 수 있습니다. 지속해 성장하는 사회가 되기 위해서는 혁신에 따른 양극화를 최소화할 수 있는 사회적 장치가 필요합니다.

    [참고자료: https://campaigns.do/discussions/678]


3. 환경적 관점: 한 번의 AI 훈련에, 뉴욕-샌프란시스코 왕복 비행 탄소 배출

  • 원자 폭탄의 폭발로 인해 발생하는 방사능이 환경에 장기적인 피해를 준다는 것은 이제 모두가 아는 사실이 되었습니다. 겉으로 드러나는 방사성 물질의 피해뿐만 아니라, 핵반응을 위한 연구, 실험, 그리고 실제 폭탄 제조를 위한 대규모의 연구 시설과 실험 장비는 이를 운영하는 데 막대한 에너지와 전력이 필요합니다. 또한, 특정 원자재와 자원을 대량으로 필요로 했기에, 이러한 자원의 채굴과 활용 역시 환경 파괴와 오염을 초래할 수 있었습니다.

  • 원자폭탄이 환경 오염에 영향을 미친다는 건 알겠는데… AI가 환경오염과 무슨 연관이 있냐고요? 핵실험과 유사하게, 대규모 AI 모델의 훈련도 상당한 양의 컴퓨팅 자원과 에너지가 필요합니다. 데이터 센터에서의 연산은 많은 전력을 소비하며, 특히 최첨단 AI 모델의 훈련은 중소 규모의 도시 전체의 전력 소비량과 비슷할 정도로 많은 에너지가 있어야 합니다. 또한, AI는 대량의 데이터를 처리하고 저장하기 위해 많은 서버와 저장 장치가 필요합니다. 이러한 기기들의 제조와 운영은 자원의 과도한 사용을 초래하며, 이에 따라 환경에 부담을 줄 수 있지요. 따라서 우리는 더 많은 데이터와 전력을 요구하는 AI 기술을 위해, 지속 가능한 에너지 소비를 위한 방안을 모색해야 할 필요성이 있습니다.

    [참고자료: https://campaigns.do/discussions/535 ]


‘오펜하이머 순간’을 막아라

미국 백악관, 그리고 오픈에이아이(AI), 구글, 마이크로소프트, 메타, 아마존, 앤트로픽, 인플렉션 등 7개 기업이 영화 개봉 21일, '인공지능 위험 관리와 관련한 자율 규제안에 합의했다'고 발표했습니다. 이 합의는 인공지능 연구자들이 평가하는 '오펜하이머 순간'을 막기 위해 만들어진 것이지요.

OpenAI의 CEO 샘 알트먼은 챗GPT 출시 전인 2019년 뉴욕타임스와의 인터뷰에서 인공지능 개발 과정을 로버트 오펜하이머의 맨해튼 프로젝트에 비유한 적도 있습니다. 크리스토퍼 놀런 감독 역시, 가디언과의 인터뷰에서 "챗GPT와 같은 첨단 인공지능은 커다란 사업 기회를 만들면서도 사회를 파괴할 수도 있는 잠재력을 가졌다"며 "인공지능 기술을 활용해 사업을 벌이는 회사 경영진이 인공지능 기술에 따른 부작용에 책임을 져야 한다"고 말했습니다.

20세기의 핵기술이 제기한 문제는 우리가 AI 혁명을 탐색할 때 가치 있는 교훈을 제공합니다. 두 분야 모두 인간 혁신의 양날의 성격을 강조하여 보여주고 있습니다. 진보와 파괴의 위험. 우리가 이 길목의 초입에 서 있을 때, 국제적 협력, 윤리적 연구, 그리고 신중한 경제 정책을 촉진하는 것이 필수적입니다.


AI의 미래에 대해 더 많은 것을 알아보고 싶나요? BetaAI 커뮤니티로 오세요!

AI에 대한 철학적 토론과 더불어 인간이 이 기술을 어떤 방향으로 사용해 나아가야 할지 더 논의하고 싶으신가요? BetaAI와 함께 우리 삶을 뒤흔들 생성형 AI를 탐구하고, 해당 기술을 직접 사용해 보세요. 백문이 불여일견, 직접 사용해 보고 만져보는 것만큼 빠르게 배우는 방법은 없습니다. 자세한 내용은 BetaAI 시즌3 모집 글에서 찾아보세요! 시즌3 지원기간은 8월30일(수요일)까지입니다 :)

👉 https://betaai.oopy.io/


By BetaAI

© 2023