슬로우뉴스 구독자 여러분, 안녕하세요.
월요일 오후에 찾아오는 [AI in a week by 테크프론티어]입니다. 뉴스가 넘쳐나는 세상, 한상기(테크프론티어 대표)가 제안하는 AI 트렌드와 큰 그림, 맥락과 흐름을 살펴봅니다. |
|
|
[AI in a Week by TechFrontier] 한 주일의 주요 AI 뉴스, 논문, 칼럼을 ‘테크프론티어’ 한상기 박사가 리뷰합니다. (⌚9분)
|
|
|
1. 오픈소스 AI란 무엇인가? OSI 정의에 따르면… |
|
|
오픈소스 AI가 진정한 오픈소스인가? 이에 관한 논란은 계속 있었다. 오픈 파라미터 정도 아니냐라는 비판도 있었으나 구글이나 메타는 자사의 결과물을 오픈소스 AI라고 주장해 왔다. 이에 따라 오픈소스 분야에서 가장 권위를 가진 오픈소스 이니셔티브(OSI)에 오픈소스 AI에 관한 정의를 발표했다.
OSI의 정의에 따르면 오픈소스 AI는 다음과 같은 자유를 갖는 AI 시스템이다.
- 어떤 목적으로든 허가를 요청할 필요 없이 시스템을 사용
- 시스템의 작동 방식을 연구하고 구성 요소를 검사
- 출력 변경을 포함하여 어떤 목적으로든 시스템을 수정
- 어떤 목적으로든 수정 여부와 관계없이 사용할 수 있게 다른 사람과 시스템을 공유
또한, 오픈소스 AI는 오픈소스라고 부르기 위해서는 다음과 같은 조건을 만족해야 한다.
- 다른 사람이 이해하고 다시 만들 수 있도록 AI를 학습하는 데 사용한 데이터에 관한 세부 정보에 접근할 수 있어야 한다.
- AI를 빌드하고 실행하는 데 사용된 전체 코드를 공개해야 한다.
- AI가 결과를 생성하는 데 도움이 되는 학습 방식에서의 설정 및 가중치를 공개해야 한다.
이 정의에 따르면 (그 동안 메타 측이 오픈소스라고 주장한) 메타의 ‘라마'(LlaMA)는 오픈소스일까? 학습 데이터에 관한 정보를 제공하지 않기 때문에 OSI는 ‘라마’를 오픈소스로 인정하지 않는다. |
|
|
사실 리눅스 재단도 10월 25일에 오픈소스 AI에 관한 정의와 오픈 사이언스 AI 모델에 대한 정의를 발표했다. 리눅스 재단의 정의는 다음과 같다:
“오픈소스 AI 모델은 공개된 모델 아키텍처(소스 코드 형식), 모델 가중치 및 파라미터, 모델 학습에 사용된 데이터에 대한 정보를 포함하며, 이를 모아서 공개적 라이센스로 제공해야 하고, 모든 수신자는 라이선스가 부여된 아티팩트 또는 그 수정 버전을 제한 없이 사용, 연구, 배포, 판매, 복사, 파생 저작물 생성 및 수정할 수 있다.”
리눅스, ‘오픈소스 AI’에 관한 정의.
오픈 사이언스 AI 모델은 여기에 투명성과 재현성을 추가해 “유사한 AI 모델을 재현하는 데 필요한 모든 소스 코드, 학습 데이터, 구성 파일, 연구 및 문서에 대한 라이선스를 제한 없이 사용할 수 있다.”로 정의한다.
정확히 오픈소스가 아님에도 오픈소스라고 주장하는 것을 ‘오픈 워싱’이라고 비판한 오픈소스 분야 전문가들은 개념을 명확히 한 것을 환영했지만, 그동안 학습 데이터를 공개하는 것은 안전의 문제가 있다고 주장한 메타는 별로 달갑지 않은 반응이다. |
|
|
왜 이 질문, 이 이슈가 중요할까. EU AI 법에서 오픈소스 AI 시스템에 관해 ‘적용 예외’를 규정했기 때문이다. 제2조에 따르면 무료 및 오픈소스 라이선스에 따라 공개된 AI 시스템에는 이 규정이 적용되지 않는다고 했다. 그러나 금지된 AI나 고위험 AI, 개인 사용자에게 직접 서비스 하는 AI 시스템이 시장에서 이미 서비스를 하는 경우에는 예외 적용이 안된다.
일반 목적 AI 모델(GPAIM) 경우에도 예외 적용이 이루어지는데 이는 (i) 모델에 대한 기술 문서 작성, (ii) GPAIM을 시스템에 통합하려는 AI 시스템 제공자에게 특정 정보 및 문서 제공과 관련된 경우에만 예외 적용이 가능하고 다른 의무는 그대로 유지된다. 또한 시스템적인 위험이 있는 GPAIM은 의무 면제를 받을 수 없다.
법률에서 오픈소스 AI 모델에 의무를 완화하는 항목이 있는 한 정확히 어떤 시스템이나 모델이 오픈소스인가 하는 것에 대한 논란은 앞으로도 계속될 전망이다. |
|
|
2. 앤스로픽, AI의 재앙적 위험에 대한 각국 정부 대책을 촉구 |
|
|
AI는 과학적 발견이나 의료, 경제 성장에 도움을 주기 시작했다. 하지만 동시에 AI의 중대한 위험 가능성 역시 높아지고 있다. 이에 대비해 각 정부가 선제적 위험 예방을 위한 AI 정책 조치를 18개월 안에 시급히 마련해야 한다고 주장하는 글을 앤스로픽이 발표했다.
앤스로픽이 이런 우려를 하는 이유는 AI 기술의 발전 속도 때문이다. 앤스로픽은 이렇게 말한다:
“약 1년 전, 우리는 프론티어 모델이 2~3년 내에 사이버 및 CBRN(화학, 생물, 방사능, 핵무기) 영역에서 실질적인 위험을 초래할 수 있다고 경고했습니다… 이제 그러한 위험에 상당히 가까워졌다고 생각합니다.”
앤스로픽이 1년 동안 ‘책임감있는 확장 정책'(RSP)를 자사에서 추진하고 실행한 경험에 따라 효과적인 AI 규제는 다음 세 가지를 포함해야 한다고 말한다.
- 투명성: AI 회사가 RSP와 유사한 정책을 갖고 게시하도록 요구해야 한다. 새로운 세대의 AI 시스템에 대한 일련의 위험 평가를 게시하여 AI 시스템의 위험과 이러한 위험을 완화하기 위한 모범 사례에 대한 공개 기록을 작성해야 하며 이러한 진술의 정확성을 확인할 수 있는 메커니즘이 있어야 한다.
- 더 나은 안전과 보안 실행에 관한 인센티브 제공: AI 규제는 또한 회사가 파국적 재난을 예방하는 데 효과적인 RSP를 개발하도록 인센티브를 제공해야 한다.
- 단순성과 집중력: 모든 규정은 현재 문제에 초점을 맞춘 외과 수술적 접근이어야 한다. 불필요하거나 현재 문제에 관련이 없는 부담을 부과해서는 안된다.
앤스로픽은 내년에 정책 입안자, AI 산업, 안전 옹호자, 시민 사회, 입법자가 함께 협력하여 위 조건을 충족하고 광범위한 이해관계자에게 동의할 수 있는 효과적인 규제 프레임워크를 개발하는 것이 중요하다고 강조한다.
이들이 AI 안전 규제 프레임워크를 서둘러 달라고 하는 데에는 내부적으로 차세대 모델 수준에 대한 위험 수준이 지금과는 다른 양상으로 진행할 수 있기 때문이다. 이를 좀 더 명확히 알기 위해선 현재 진행 중인 미국 AI 안전연구소에서 오픈AI와 앤스로픽 차기 모델에 대한 평가를 기다려볼 필요가 있다.
|
|
|
3. 구글, 새 제품 신규 코드의 25%를 AI로 생성
“새로운 제품에 들어가는 컴퓨터 코드의 25%는 이미 AI로 생성하고 있으며 인간 프로그래머는 이를 감독하고 있다.”
“우리는 또한 내부적으로 AI를 사용하여 코딩 프로세스를 개선하고 있으며, 이는 생산성과 효율성을 높이고 있다”
- 순다 피차이(구글 CEO)
구글의 CEO 순다 피차이가 2024년 ¾ 분기 실적 발표 중에 이런 얘기를 해서 사람들을 놀라게 했다. 아주 놀라운 일은 아닌 것이 스택 오버플로우에서 한 2024년 개발자 서베이에 따르면 응답자의 76%가 개발 과정에서 AI를 사용할 계획이고 62%가 적극적으로 사용하고 있다고 했다. 그러나 70% 가까운 프로 개발자는 AI가 자기 직업에 위협이 되지는 않는다고 답했다.
|
|
|
AI 생성 코드가 더 많은 찾기 어려운 버그와 오류를 가질 것이라고 우려하는 사람들도 있지만, 실제로 반도체 설계 자동화(EDA)는 이미 일반화되어 있고, AI로 칩을 설계하는 일이 나타나는 상황에서 이는 전환기에 갖는 우려일 수 있다.
다만 경험 있는 숙련자가 문제가 없는지 확인하는 루프 안에 있어야 하는데, 점점 더 AI 코딩에 의존하게 되면 이런 숙련자를 어떻게 기업에서 키울 수 있는지에 관한 고민이 필요하다. |
|
|
4. 바이든 정부 행정 명령 14110 이후 1년 결과 발표
일 년 전 2023년 10월 30일에 바이든 정부는 행정 명령 14110을 발표해 AI의 안전 및 보안 위험 관리, 미국인의 개인 정보 보호, 형평성과 시민권 증진, 소비자와 근로자 옹호, 혁신과 경쟁 촉진, 전 세계에서 미국의 리더십을 발전시키기 위한 전면적인 조치를 취했다. 일 년 동안 연방 기관은 행정명령에 따른 각 조치를 예정대로 완료했으며, 이는 모두 100개가 넘는다고 발표했다.
대통령의 행정 명령에 따라 모든 연방 기관이 체계적으로 일정을 잡고 해야 할 과업을 목표대로 실행하는 것을 보면 미국의 경쟁력이 어디서 나오는지 알 수 있다. 정부가 정책이나 실행 계획을 발표한 후 그 성과를 투명하게 지속적으로 발표하는 것은 우리 정부가 배워야 할 것이다. 발표는 많은데 그 성과가 얼마나 어떻게 이루어졌는지 국회에서도 별로 따지지 않는 것 같다.
|
|
|
참고로 안전과 보안에 관한 위험 관리 부문 주요 성과를 정리해 보면 다음과 같다.
- 국방물자생산법 담당 기관은 가장 강력한 AI 시스템 개발자에게 안전 및 보안 테스트 결과를 포함한 중요한 정보를 정부에 보고하도록 의무화했다.
- AI 안전 연구소를 설립해 AI 안전 테스트 및 평가를 주도하고 AI 안전 과학을 발전시키는 데 앞장서게 했다.
- 미국 AISI와 국립표준기술연구소(NIST)는 생성형 AI 및 이중 사용 기반 모델과 관련된 위험을 관리하기 위한 프레임워크를 발표했다.
- AI에 관한 최초의 국가안보각서(NSM)를 발표했다.
- 과학기술정책실(OSTP)를 통해 위험한 생물학적 물질을 엔지니어링하는데 AI가 오용되는 것을 방지하기 위해 핵산 합성 스크리닝 프레임워크를 완성했다.
- AI 데이터센터 인프라에 관한 새로운 태스크포스 출범했다.
- AI 생성 콘텐츠로 인한 위험을 줄이기 위해 콘텐츠 라벨링 및 투명성 개선을 위한 접근 방식을 포함한 조치를 확인했다. 상무부는 이러한 위험을 해결하기 위한 과학 기반 표준 및 기술에 대한 최종 보고서를 백악관에 제출했으며, NIST는 AI로 생성된 콘텐츠를 탐지하는 방법을 개발하기 위한 과제를 시작했다.
- AI가 생성한 이미지 기반 성적 학대 방지: 백악관이 촉구한 행동에 따라 주요 AI 개발자와 데이터 제공업체는 AI가 생성한 이미지 기반 성적 학대 자료의 생성을 억제하기 위해 자발적으로 노력하기로 약속했다.
- AI 안전 및 보안 위원회(AISSB) 설립해서 국토안보부 장관에게 중요 인프라에서 AI의 안전한 사용에 대해 조언하도록 했다.
- 중요한 정부 소프트웨어 시스템을 보호하기 위한 AI 시범 운영. 국방부와 국토안보부는 각각 국가 안보 목적과 정부 기관에서 사용하는 정부 네트워크의 취약점을 해결하기 위해 AI 파일럿을 실시했다.
|
|
|
5. 주요 빅테크 기업 실적 발표에서 나타난 AI의 위상
지난 주에는 주요 빅테크 기업의 분기 실적 발표가 있었다. 그 가운데 AI 부문이 차지하는 비중을 따로 살펴보면 다음과 같다.
- 아마존 AWS는 1년 전에 비해 19% 증가한 275억 달러 매출을 기록했는데, 이런 성장이 다시 가속하게 된 데에는 생성형 AI에 대한 기업의 수요가 있었기 때문이라는 것이 회사의 주장이다.
- 마이크로소프트의 AI 사업은 다음 분기에 연 매출 100억 달러를 돌파할 것이며 이는 마이크로소프트 역사상 가장 빠르게 이 이정표를 달성하는 사업이 될 것이라고 사티아 나델라가 컨퍼런스 콜에서 말했다.
- 구글 클라우드 매출은 AI 인프라, 생성형 AI 솔루션, 핵심 제품 전반의 성장에 힘입어 전년 대비 35% 증가한 114억 달러로 급증했다고 2024년 3분기 실적 발표에서 구글 CFO 겸 수석 부사장 아낫 아쉬케나지(Anat Ashkenazi)가 밝혔다.
- 메타는 AI 기반 광고 타겟팅과 콘텐츠 추천에 집중하여 페이스북, 인스타그램, 왓츠앱 전반에서 참여와 수익 창출을 촉진했으며 작년 대비 19% 성장으로 406억 달러의 매출을 달성했다. 그러나 AR/VR과 메타버스를 담당하는 리얼리티 랩스는 44억 달러의 운영 적자를 기록했다.
|
|
|
6. 기타 뉴스: xAI 투자 유치 중인 머스크 등
- 일론 머스크의 xAI가 400억 달러 가치로 50억 달러 규모의 펀딩을 추진 중이다. 발로어(Valor)가 리드하고 세콰이어가 참여할 것으로 보며, 카타르와 사우디아라비아, UAE의 MGX가 관심을 두고 있다고 한다. 이 회사의 5개월 전 가치는 240억 달러였다. 참고로 얼마 전에 펀딩을 마친 오픈AI의 가치는 1,570억 달러였다.
|
|
|
- 제임스 카메론, AGI 위험을 경고
- 40년 전 영화 터미네이터로 경고했지만, AGI 실현은 이제 정부 프로젝트가 아닌 기업에 의해 이루어질 것이라고. “그러면 여러분은 동의하지도 투표하지도 않은, 기업의 목표와 규칙을 따르는 초지능적인 외계인과 공존하는 세상에 살게 될 것입니다.”
- “40년 전 ‘터미네이터’에서 제시했던 시나리오보다 더 무서운 시나리오가 현실이 되고 있습니다.”
|
|
|
|