News & Events
AI에게 2021년은 다사다난한 한 해였다. 새로운 기술의 등장으로 단어와 사진, 영상, 오디오 사이의 관계를 이해할 수 있는 강력한 시스템이 가능해졌다. 동시에, 정책 입안자들은 AI의 잠재적 피해를 점점 더 경계하고 있으며 차별을 포함한 AI의 최악의 영향을 완화하기 위한 규칙을 제안했다.
한편, AI 연구소는 “책임 있는 AI”를 고수한다는 시그널을 보내면서도 모기업이나 투자자들의 압력에 밀려 서둘러 자신들의 업무를 상업화하였다. 그러나 미국 국립표준기술원(NIST)에서 유엔에 이르기까지 다양한 기관들은 보다 설명 가능한 AI의 토대를 마련한 가이드라인을 발표하면서 추론이 투명한 ‘블랙박스’ 시스템에서 벗어날 필요성을 강조했다.
2021년에 등장한 데이터 엔지니어링(AI 시스템 훈련, 테스트 및 벤치마킹하는 데 사용되는 데이터셋 설계)에 대한 새로운 포커스는 2022년까지 유지될 것으로 보인다. 기업 내에서의 AI 흡수 증가처럼, AI 가속기 하드웨어의 혁신은 2022년의 또 다른 성공 요인이다.
2021년을 돌아보며
멀티모달 모델
지난 해, 1월 오픈AI는 DALL-E와 CLIP 두 가지 멀티모달 모델을 출시했는데, 이 모델은 “세상에 대한 더 깊은 이해를 가진 시스템을 향한 발걸음”이라고 연구소는 말한다. 이름은 살바도르 달리에서 영감을 받아 만든 것이며 CLIP은 시각적 개념을 언어와 연관시키는 것을 훈련했다.
2021년, DALL-E와 CLIP은 점점 성능이 향상되고 있는 여러 멀티모달 모델 중 첫 번째 모델로 밝혀졌다. 몇 년 전만 해도 도달하지 못했던 멀티모달 모델이 이제 프로덕션 환경에 배치되어 혐오 발언 탐지부터 검색 관련성까지 모든 것을 개선하고 있다.
구글은 6월에 다른 언어들 간에 지식을 전달할 수 있는 웹으로부터 문서들의 데이터 셋에 대해 훈련된 멀티모달 모델인 MUM을 선보였다. 과제를 완수하는 법을 명시적으로 가르쳐줄 필요가 없는 MUM은 날씨뿐 아니라 피트니스 등을 아우르는 ‘준비’를 깨달으면서 “내년 가을 후지산에 하이킹하고 싶다 – 무엇을 준비해야 하는가” 등 75개 국어로 질문에 답할 수 있다.
Nvidia는 최근 GauGAN 모델의 후속작인 GauGAN2를 출시했는데, 이는 사용자가 실제로 존재하지 않는 실제 풍경 이미지를 만들 수 있게 해준다. 분할 매핑, 인페인팅 및 텍스트-이미지 생성과 같은 기술을 결합하여 GauGAN2는 단어와 그림을 혼합하여 사실적 예술을 만들 수 있다.
대형 언어모델
마케팅 카피, 문서 처리, 번역, 대화, 기타 텍스트 작업 등의 워크로드에 대한 AI에 대한 관심이 높아지면서 2021년 대형 언어 모델(LLM)도 등장했다. OpenAI, Cohere, AI21 Labs와 같은 리소스가 풍부한 조직의 영역이었던 LLM은 EleutherAI와 같은 자원 봉사에 힘입어 급속도로 스타트업들이 상용화할 수 있는 범위 내에 닿았다.
DeepMind와 같은 기업들은 여전히 벤치마크의 상위권에 올라섰지만, CoreWeave, NLP Cloud, Neuro 등 점점 더 많은 기업들이 OpenAI의 GPT-3와 유사한 기능을 갖춘 모델을 고객에게 제공하기 시작했다.
주권과 경쟁에 의해 동등한 부분에서 동기부여를 받은 대형 국제 기구들은 LLM 훈련에 막대한 컴퓨팅 자원을 투입했다. 이전 OpenAI 정책 책임자 Jack Clark는 한 뉴스레터에서 이러한 모델들은 다양한 국가들이 GPT-3와 같은 프런티어 모델들을 훈련시킴으로써 그들 자신의 AI 능력을 주장하는 일반적인 경향의 일부라고 말했다.
한국의 검색 엔진인 네이버는 하이퍼클로바라고 불리는 GPT-3와 동등한 한글을 만들었다. 화웨이와 바이두는 각각 수 테라바이트에 달하는 중국어 전자책, 백과사전, 소셜미디어에서 훈련한 PanGu-Alpha와 PCL-바이두 원신(에르니3.0타이탄)을 개발했다.
상용화 압박
지난 11월 구글의 모회사인 알파벳은 딥마인드 공동창업자인 데미스 하사비스가 이끄는 AI 기반 약물 발견에 초점을 맞춘 자회사인 아이소모픽 랩스를 설립했다. 아이소모픽의 출시는 순수하게 이론적인 응용이 아닌 상업적인 연구를 추구해야 한다는 기업 지원 연구소에 대한 증가하는 압박을 강조하였다.
예를 들어 딥마인드는 StarCraft II와 Go에서 챔피언을 이길 수 있는 시스템과 같은 권위 있는 프로젝트에 여전히 참여하고 있지만, 연구소는 최근 몇 년 동안 날씨 예측, 재료 모델링, 원자 에너지 계산, 앱 추천 및 데이터 센터 냉각 최적화와 같은 보다 실용적인 영역으로 관심을 돌리고 있다. 마찬가지로 OpenAI는 2016년 비영리 단체로 시작되었으나 2019년 “영리”로 전환되어 8월에 AI 기반 프로그래밍 조수인 Codex가 출시된 후 11월 말에 유료 API를 통해 GPT-3을 일반적으로 사용할 수 있게 되었다.
2021년 상용화가 강조된 데는 적어도 지난 10년간 AI의 학문적 ‘인재 유출’이 일정 부분 작용하고 있다. 한 논문은 2008년과 2009년부터 2018년과 2019년까지 AI 연구에서 자금 또는 제휴 기업과의 관계가 79%로 두 배 증가했다는 것을 발견했다. 그리고 2006년부터 2014년까지 AI 출판물 중 법인 소속 저자가 차지하는 비중은 약 0%에서 40%로 증가했는데 이는 연구자들이 기관에서 기업으로의 이동이 증가하고 있음을 반영한다.
학업 과정에도 결점이 없는 것은 아니다. 예를 들어, 엘리트 대학에 컴퓨팅 능력이 집중되어 있다. 그러나 상업 프로젝트는 당연히 은혜, 정의, 포용과 같은 가치를 강조하지 않는 경향이 있는 것으로 나타났다.
자금 지원 확대 및 컴퓨팅
상용화 추세에 발맞춰 투자자들은 그 어느 때보다 AI 스타트업에 많은 자금을 쏟아부었다. CB Insights의 2021년 11월 보고서에 따르면 전 세계 AI 스타트업은 2,000개 이상의 거래에 걸쳐 500억 달러를 모금하여 2020년의 55% 수준을 능가했다.
사이버 보안과 프로세서 회사들은 금융, 보험, 소매, 소비자 패키지 상품과 함께 신생 유니콘(평가액이 10억 달러 이상인 기업)의 물결을 이끌었다. 헬스케어 AI가 거래 점유율 1위를 이어갔는데, 헬스케어 시장의 AI가 69억달러에서 2027년 674억달러로 성장할 것으로 전망된다는 점을 고려하면 놀라운 일이 아니다.
자금 지원을 주도하는 것은 부분적으로 최첨단 AI 시스템의 비용 상승이다. 보도에 따르면 딥마인드는 바둑을 배우기 위한 인공지능 시스템을 훈련시키기 위해 3500만 달러를 책정했다.인공지능은 GPT-3 훈련에 460만~1200만달러가 투입된 것으로 추산되고 있으며, 자율 주행 자동차 기술을 개발하는 기업들은 운영비와 연구 개발비를 충당하기 위해 분할·합병·인수 또는 수억달러 규모의 벤처 캐피탈을 조달했다.
상대적으로 소수의 스타트업이 거대하고 비용이 많이 드는 AI 모델을 개발하고 있지만, 모델을 운영하는 것도 마찬가지로 비용이 많이 들 수 있다. 아마존 웹 서비스 단일 인스턴스에서 GPT-3를 실행하는 가격을 연간 최소 87,000달러로 추산하고 있다. API는 자체 호스팅된 옵션보다 저렴할 수 있지만 극적으로 그렇지는 않다. OpenAI를 기반으로 하는 취미 활동 사이트 GPT-3 API는 월 최소 4000달러 이상을 지불해야 할 것으로 추산한 뒤 폐쇄를 고려할 수밖에 없었다.
규제 및 지침
AI의 상업화가 가속화됨에 따라 정책 입안자들은 AI 시스템에 군림하고 더 투명하게 만들기 위한 정책으로 대응해 왔다. 기업의 윤리 무시로 감독 당국의 규제가 불가피해진 경우도 있다. 저명한 윤리학자 팀니트 게브루와 마가렛 미첼을 해고시킨 후 구글은 자사의 AI 윤리 원칙을 고수하는 동시에 자사의 기술을 부정적으로 보여주는 내부 연구를 제한하려고 시도하고 있다고 직원들을 안심시키려 했다. 보고서는 메타(구. 페이스북)의 AI 윤리팀 역시 힘이 거의 없고 효과적이지 않다고 묘사했다.
지난 4월 유럽연합은 27개 회원국에 걸쳐 AI 사용을 규제하는 법안을 제안했다. 해당 법안은(일부 예외를 제외하고) 얼굴 인식과 같은 공공장소에서 생체 인식 시스템의 사용을 금지한다. 그리고 신용 점수 매기기, (무기와 같은) 위해를 가하는 것, 그리고 부지불식간에 영향을 미치는 행동 조작에서 인공지능을 금지한다.
유엔의 교육, 과학, 문화 기구(UNESCO)는 11월에 AI가 “근본적인… 우려”를 제기하면서 “큰 도움이 될” 수 있다는 것을 인식하는 것을 목표로 하는 일련의 윤리 권고안을 승인했다. 러시아와 중국 등 유네스코 193개 회원국이 AI 영향 평가를 실시하고 인권 보호를 위한 ‘강력한 집행 메커니즘과 구제 조치’를 두기로 합의했다.
해당 정책이 구속력이 없는 반면, 중국의 지지는 인공지능 감시 기술의 사용에 대한 중국의 입장 때문에 의미가 크다. 뉴욕 타임스에 따르면 중국 정부는 예측 기술을 이용해 개인의 거래 데이터, 위치 이력, 사회적 연줄 등을 싹쓸이해 폭력 여부를 판단해 왔다. 다후아와 화웨이와 같은 중국 회사들은 중국 신장 지방에서 박해 받는 소수 민족인 위구르족을 목표로 설계된 몇몇 얼굴 인식 기술을 개발했다.
Clearview AI와 같은 업체들에 의해 자극을 받아, 얼굴 인식과 같은 기술에 대한 금지 조치는 2021년에 미국 전역에서 활기를 띠었다. 캘리포니아 주 의회 의원들은 웨어하우스들이 노동자들을 추적하기 위해 사용하는 알고리즘을 공개하도록 요구하는 법안을 통과시켰다. 그리고 뉴욕시는 최근 고용주들이 차별하지 않을 것이라는 감사 결과가 나오지 않는 한 AI 채용 툴을 사용하는 것을 금지했다.
이밖에 영국 데이터윤리혁신센터(CDEI)는 올해 알고리즘을 사용하는 공공 기관들이 감독 수준을 포함해 알고리즘이 어떻게 적용되고 있는지에 대한 정보를 공개하도록 의무화할 것을 권고했다. 심지어 중국도 기업들이 사업의 특정 부분을 견인하기 위해 사용하는 알고리즘에 대한 감독을 강화했다.
방어를 위한 AI의 정책 제정은 여전히 모호하다. 오큘러스 공동창업자인 파머 럭키의 안두릴과 피터 티엘의 팔란티르와 같은 일부 기업들에게는 군사용 AI 계약이 최고의 수익원이 되었다. 미국 프랑스 영국 등이 자율 방어 기술을 개발한 반면 벨기에 독일 등은 이에 대한 우려를 나타냈다.
미 국방부는 지난 12월 미국 해양대기청, 교통부, 법무부 윤리 단체, 총무청, 국세청 등에 “책임 있는… 지침”을 요약한 백서를 발간했다. 이는 AI 시스템에서 “의도하지 않은 결과”를 피하기 위한 프로세스를 수립한다. 미국 국립표준기술원이 AI 표준 개발을 위해 학계 및 민간과 협력하기 시작하자 나토는 올해에도 이 기구의 ‘AI의 책임 있는 사용’ 원칙을 담은 AI 전략을 발표했다.
딜로이트의 분석가들은 AI 산업 동향을 조사한 최근 보고서에서 규제 기관들이 완전히 물러날 것 같지 않다고 말했다. 조만간 AI에 대한 더 많은 규제가 제정될 것이라는 것은 거의 예견된 결론입다. 이러한 규제가 어떤 모습일지 정확히 알 수 없지만 AI의 활용에 실질적인 영향을 미칠 것으로 보인다고 말했다.
2022년 예측
중요한 시점
2022년을 내다보면 멀티모달과 언어 영역에서 기술 발전이 가속화될 것으로 보인다. 콜센터 분석, 개인화, 클라우드 이용 최적화 등에서 상용화된 AI에 대한 투자자들의 욕구가 커지면서 자금 조달도 기하급수적으로 증가할 수 있다.
번역 – 핀인사이트 인턴연구원 강지윤(shety0427@gmail.com)
원문 보러가기>