슬로우뉴스 구독자 여러분, 안녕하세요.
월요일 오후에 찾아오는 [AI in a week by 테크프론티어]입니다. 뉴스가 넘쳐나는 세상, 한상기(테크프론티어 대표)가 제안하는 AI 트렌드와 큰 그림, 맥락과 흐름을 살펴봅니다.
|
|
|
혹시
1. [슬로우레터] 구독을 끊고 [AI in a week by 테크프론티어]만 구독하고 싶으시거나,
2. [AI in a week by 테크프론티어]를 구독하고 싶지 않으신 분은 답장을 주시면 처리해 드리겠습니다. 저희가 주제별로 몇 가지 뉴스레터를 발행할 계획인데 각각 별도로 구독 신청을 받으려고 합니다. 디폴트는 전체 구독으로 하되 선택 가능한 옵션을 두려고 합니다. 고맙습니다.
|
|
|
AI와 일자리의 종말: 성급한 호들갑 vs. 기술적 필연 |
|
|
[AI in a Week by TechFrontier] 한 주일의 주요 AI 뉴스, 논문, 칼럼을 ‘테크프론티어’ 한상기 박사가 리뷰합니다. (⏰15분)
|
|
|
‘AI로 인해 일자리의 종말이 초래될 것인가?‘
지난주 가장 뜨거운 이슈였다. 특히 앤스로픽의 다리오 아모데이가 5년 안에 초급 일자리 50%가 사라진다는 예측을 내놓는 바람에 각종 미디어가 이 ‘논쟁’에 참전했다. 마침 국내에서도 40~50명의 소프트웨어 전문가가 모여 ‘AI와 일자리’ 이슈가 국내 소프트웨어 개발자에게 미치는 영향에 관해 깊이 있는 논의를 진행했다. 결론은 아직 명확하지 않다. AI 기업 최고 경영진 일부는 매우 강하게 우려했고, 실제로 일부 기업에서는 채용 중단이나 실직 사태가 일어나기도 한다(나는 이런 논의가 일정하게 마케팅 요소를 품고 있다고 생각한다).
또한 인터넷 시대 트렌드 보고서의 여왕인 메리 미커가 돌아왔고, 340페이지에 달하는 AI 트렌드 보고서 슬라이드를 투척했다. 근데 이분이 등장하면 ‘버블’ 신호로 해석하기도 한다. 일본이 AI 법을 만들었다는 소식과 뉴욕타임스가 아마존과 AI 콘텐츠 라이선스 계약을 했다는 소식을 정리했고, 끝으로 흥미로운 논문 세 개를 소개했다. 그 밖의 소식에서는 10개 이상의 단신을 정리했다.
|
|
|
지난주 개인적으로는 가장 많은 글과 토의가 바로 AI와 일자리의 미래에 관한 것이었고, 특히 나에게는 IT 초급 인력∙대학 졸업생 일자리가 사라지고 있는 것인가에 관한 토론이었다.
먼저 뉴욕타임스의 케빈 루스는 대학의 일부 신입 졸업생의 경우 AI 일자리 종말이 이미 도래했을 수 있다는 제목으로 기사를 썼다. 최근 몇 달 동안 대학 졸업자들의 실업률은 이례적으로 높은 5.8%로 치솟았고, 뉴욕 연방준비은행은 최근 이들 근로자의 고용 상황이 "눈에 띄게 악화되었다"고 경고했다는 것이다. 노동 시장을 연구하는 연구 기관인 옥스퍼드 이코노믹스(Oxford Economics)는 최근 졸업자들의 실업률이 금융이나 컴퓨터 과학처럼 AI가 빠르게 발전하는 기술 분야에 집중되어 있음을 발견했다고 한다.
케빈 루스는 인터뷰를 거듭할수록 기업이 초급 업무 자동화를 진행 중이고, 훨씬 적은 비용으로 신입 직원을 대체할 수 있는 ‘가상 노동자’를 구축하기 위해 AI 기업이 경쟁하고 있다는 것을 알았다고 한다. 한 회사는 최근 L5 소프트웨어 엔지니어 (경력이 3~7년 되는) 이하의 인력 채용을 중단했다고 한다. 또 다른 임원은 이전 회사에서는 75명의 팀이 필요했던 업무를 이제 데이터 과학자 한 명만 고용했다고 한다. 올해 초 세계경제포럼(WEF) 설문 조사에 따르면 고용주의 41%가 AI 자동화로 인해 2030년까지 인력 감축을 계획하고 있다고 밝혔다.
물론 이런 이야기가 대량 실업을 의미하지는 않는다. 대졸자 실업률 증가에는 대형 빅테크 기업의 채용 둔화와 트럼프 행정부로 인한 정책 불확실성도 원인이 있다. 하지만 AI에서 뭔가 경보가 울리고 있다고 한다. AI가 노동자에게 미치는 영향을 연구하는 공공 정책 싱크탱크 브루킹스 연구소의 연구원 몰리 킨더는 고용주들이 ‘이 도구들이 너무 좋아서 더 이상 마케팅 분석가, 재무 분석가, 연구 보조원이 필요 없다’고 말하고 있다.
|
|
|
앤스로픽의 최고경영자 다리오 아모데이는 최근 악시오스와 인터뷰를 통해 AI가 5년 안에 모든 초급 사무직 일자리의 절반을 없앨 수 있다고 예측했다. 이는 향후 5년 안에 실업률을 10-20%로 증가하게 만들 것이다. 아모데이는 AI 기업과 정부가 기술, 금융, 법률, 컨설팅 및 기타 사무직, 특히 입문급 일자리의 대량 소멸 가능성에 대해 "긍정적으로 돌려 말하는 것(슈가 코팅)"을 중단해야 한다고 말했다.
그는 CNN의 앤더슨 쿠퍼와 인터뷰를 통해 마찬 가지로 화이트 칼라와 초급직 일자리가 위기에 처해 있으며, 그 타임라인은 우리가 생각하는 것보다 빨리 올 것이라고 예측했다. 그는 곧 AI가 "거의 모든 지적 작업"에서 인간을 능가하는 상황에 직면하게 될 것이기 때문에 결국 AI 자동화가 자신의 일자리를 대체하는 일에서 안전할 사람은 아무도 없을 것이라고 단언한다. 본인도 예외가 아닐 것이라고 하며 우리는 사회를 어떻게 조직할지 생각해야 할 필요가 있음을 강조했다. 이에 대한 대비책 중 하나로 AI 회사에 세금을 부과하자는 제안도 했다.
그러나 앤드류 응 교수는 지난 3월 한 노벨상 수상자가 무려 1960년대에 말했지만, 60년 넘게 성취되지 않은 예언을 자신의 소셜 미디어에 인용하면서 아모데이의 견해에 반어적인 형식으로 반대 의사를 표했다: "프로그래밍 직업이 전능해질 가능성보다 멸종될 가능성이 훨씬 더 높습니다. 점점 더 많은 컴퓨터가 스스로 프로그래밍할 것입니다." (허버트 사이먼)
앞에서 언급한 뉴욕 연방준비 은행 자료를 보면 지금 5.8%의 실업률은 2010년대에 비하면 아직 준수한 수준이다. |
|
|
이코노미스트 역시 실업에 대한 우려를 반박하며, AI가 일자리를 없애는 "상상 가능한 어떤 메커니즘과도 데이터가 전혀 부합하지 않는다"고 주장했다. 예를 들어 번역 일자리는 오히려 전년 대비 7% 증가했다는 것이다.
또한 뒤에 소개할 메리 미커의 자료에 따르면 AI 직업에 대한 채용 공고는 폭발적으로 늘어나고 있다. 물론 AI 직업 이야기이지만 이는 우리가 알던 직업이 크게 변하는 과정에 있음을 보여주는 것 아닐까 한다. 30일에 있었던 토론회에서도 여러 패널들이 IT 업무의 패러다인 전환이 일어나고 있음을 인정했다. |
|
|
최근 국내에서 보이는 IT 분야의 초급 엔지니어 수요가 거의 사라진 이유를 AI의 자동 코딩 능력 때문이라고 단정할 수는 없다. 내가 알기로 AI 자동 코딩을 적극 활용하는 기업은 아직 소수이고, 그 수준도 아직 제한적이기 때문이다(물론 관심들은 매우 높다). 그 보다는 예산 축소로 인한 공공 섹터에서 프로젝트 자체가 사라진 것과 앞으로 AI 활용 문제로 이에 대한 대응 방안이 명확하지 않기 때문에 숨고르기에 들어가 있는 것, 그리고 마지막으로 IT 초급 직업 자체가 늘어나지 않았는데 직업을 찾는 미숙련 IT 노동자를 양산한 정책의 실패라고 생각한다.
그래도 개인적으로는 인터스텔라에 나온 대사 ‘우리는 답을 찾을 것이다. 늘 그랬듯이’와 같이 공존의 답을 찾아낼 수 있다. 다만 그 답은 지금 주력 세대가 아닌 새 세대가 찾을 것이다. 왜냐하면 중간 관리자나 시니어 일자리가 먼저 사라질 수도 있기 때문이다. 케빈 루스는 기사 뒷 부분에서 이런 이야기를 전한다.
“제가 이야기를 나눈 젊은 직원들 중 일부는 AI 관련 경험을 바탕으로 선배들보다 앞서 나가고 있고, 어떤 이들은 전통적인 승진 사다리를 오르는 직업을 아예 피하고 있다.”
|
|
|
2. 그분이 오셨다! 메리 미커의 AI 트렌드 보고서
|
|
|
매년 인터넷 보고서를 공개했던 메리 미커가 2019년 이후 6년 만에 AI 트렌드 보고서를 공개했다. 메리 미커는 닷컴 버블을 야기했다는 비판도 받지만 (모건 스탠리 시절), 클라이너 퍼킨스 시절에 매년 발표한 인터넷 트렌드 보고서는 많은 데이터를 통해 인사이트를 제공하던 자료이다. 2018년 9월 본드(BOND)라는 벤처 캐피털를 세우고 12억 달러의 펀드를 결성한 후 2021년에는 두 번째로 20억 규모의 펀드를 결성했다.
|
|
|
이번에 발표한 AI 트렌드 리포트는 340장의 슬라이드로 구성되어 있다. AI 개발, 도입, 지출, 사용되는 속도를 설명하고 있으며, 이를 뒷받침하는 차트를 다각적으로 제시한다. 메리 미커가 ‘전례 없는’이라는 단어로 설명하는 것은 다음과 같은 것들이다.
- ChatGPT 사용자 수의 증가와 주요 AI 기업의 높은 연간 반복수익률(ARR)
- 사용 비용 하락 속도: 모델 학습 비용도 전례 없는 수준이지만 추론 비용의 감소도 2년 만에 99%가 떨어진 것도 전에 못 보던 사례이다 (100만 토큰 당 비용)
- 경쟁사들이 오픈소스를 통해 서로의 기능을 대등하게 제공하는 속도
- 에너지 절감: 엔비디아의 2024년형 블랙웰 GPU가 2014년형 케플러 GPU보다 토큰당 105,000배 적은 에너지를 사용
- 구글의 TPU나 아마존의 트레니움의 개발 속도와 투자
아래는 이 슬라이드 데크의 아웃라인으로 제목만 봐도 무슨 내용을 담고 있는 지 알 수 있다. 많은 자료는 스탠포드에서 나온 HAI 자료와 공개된 통계 자료를 기반으로 작성했는데 사람들이 앞으로 강연 슬라이드 작성할 때 이 자료를 많이 활용할 것으로 보인다. 많은 AI 기업과 AI 활용 기업의 실적 데이터가 포함되어 있고 추세 그래프로 결과를 보여주기 때문에 직관적으로 이해할 수 있는 슬라이드가 많다. 340장을 한 번 쭉 훑어 보기 추천한다. |
|
|
자료 뒤의 요약 마지막 부분을 보면 AI는 우리가 주변 세계와 상호 작용하는 방식을 변화시키고 있고, 사용 패턴이 진화하고 단위 비용이 감소함에 따라, 우리는 지능이 기본 인터페이스가 되는 인터넷의 초기 단계를 목격하고 있다고 한다. 이 모든 것은 정보와 자본의 흐름 및 투명성 증가, 그리고 무기화 사례 증가로 인해 더욱 증폭된다. 한 가지는 확실하다고 하는 것이, "AI는 이제 '게임 시간'이며, 점점 더 강렬해질 것이다. 그리고 지니는 다시 병 속으로 돌아가지 않을 것이다"는 말로 맺는다. |
|
|
이원태 박사가 소개한 기사다. 아래는 이원태가 박사가 정리한 내용이다.
2025년 5월 28일 일본도 자국 최초의 인공지능(AI) 법("인공지능 관련 기술의 연구개발 및 활용 촉진에 관한 법률"이 국회 참의원에서 통과했다. EU, 한국에 이어 세계에서 세 번째인 셈이다. 일본 AI법은 AI 기술의 발전을 장려하면서도 그로 인한 위험을 관리하기 위한 국가 차원의 기본 틀을 마련하는 데 목적이 있는데, 다음과 같은 특징을 지니고 있다.
⑴ AI 전략본부 신설: 총리를 본부장으로 하는 'AI 전략본부'가 내각 차원에서 신설되어, AI 관련 정책의 수립과 조정을 담당한다. 이 본부는 정부의 기본 계획을 수립하고, AI 기술의 연구개발 및 활용을 촉진하는 역할을 한다.
⑵ 자발적 준수 중심의 소프트 로(Soft Law): 이 법은 강제적인 규제보다는 자발적 준수를 강조하는 소프트 로(Soft Law) 접근을 취하고 있다. 벌칙 규정은 없으며, 기존의 형법이나 저작권법 등을 통해 AI 오용에 대응한다.
⑶ AI 오용에 대한 정부 대응 권한: 그렇다고 해서 정부의 역할이 없는 것은 아니다. AI가 범죄, 개인정보 유출, 저작권 침해 등에 악용될 경우, 정부는 관련 기업에 조사, 지도, 권고를 할 수 있으며, 필요시 기업명을 공개할 수 있는 등의 최소규제 권한을 가진다.
⑷ 딥페이크 등 부작용 대응: 딥페이크 등 AI 생성 콘텐츠로 인한 사회적 문제에 대응하기 위해, 정부는 AI 오용 사례를 분석하고 공표하는 역할도 수행한다. 또한, 이러한 문제에 대한 보완 조치를 마련할 것을 촉구하는 추가적 권고안도 채택되었다.
⑸ 글로벌 AI협력을 강조: 일본 AI법은 규제 완화를 통한 연구개발 촉진에 초점을 두고 강제적인 규제를 최소화했기 때문에, AI 기술의 연구개발 및 실증 실험을 자유롭게 진행할 수 있는 환경을 조성하는 점을 강조하고 있다. 국제적인 AI 기술 경쟁에서 일본은 민주적 가치와 윤리적 기준을 강조하면서도, 국제 협력을 통한 기술 발전을 추구한다고 밝히고 있다.
💡 총평: 일본AI법은 EU의 강력한 규제중심 접근(EU AI Act)과 미국의 행정명령 중심의 부분적 규제 접근과는 다른, 자발적 준수를 강조하는 소프트 로(soft law) 방식으로 접근한다는 중요한 특징을 지니고 있다. 이러한 차별화된 AI정책은 일본을 AI 혁신의 글로벌 허브로 만들어 미국·EU 중심의 AI 규제 갈등 사이에서 독특한 전략적 입지를 확보하려는 의도를 보여준다.
일본은 AI를 둘러싼 미·중 갈등 속에서 민주주의 국가의 가치(민주적 원칙, 개인정보 보호, 윤리적 책임 등)를 강조하면서도 엄격한 규제에 따른 혁신 둔화를 회피하려는 균형적 입장을 취하고 있는 것이다. 이를 통해 일본은 미·중 기술 패권 경쟁에서 미국과 협력하면서도 일정 부분 독자적인 기술 리더십을 유지할 수 있는 위치를 확보하려는 것으로 보인다.
그래서 일본 AI법 곳곳에는 AI국제협력 및 AI국제규범 형성 참여를 명확히 강조하고 있다. 일본이 향후 AI 기술 관련 글로벌 표준 논의에서 적극적 주도권을 행사하겠다는 의미로, 지정학적으로 미국, EU, 아시아 국가들과의 협력 중심지로 자리 잡으려는 전략적 포석이다. AI기술 국제협력의 허브로서 위상을 강화하겠다는 정책 의지의 표현인 셈이다.
|
|
|
4. 뉴욕타임스, 아마존과 첫 AI 라이선스 계약 체결
|
|
|
오픈AI나 마이크로소프트와 저작권 침해소송을 하고 있는 뉴욕타임스가 아마존과 처음으로 자사 콘텐츠 라이선스 계약을 했다. 이를 통해 아마존은 뉴욕타임스, 요리 앱, 스포츠 사이트 ‘디 애슬레틱’의 콘텐츠를 활용할 수 있게 되었다. 특히 알렉사를 통해 콘텐츠 요약이나 사용자 질의에 대한 응답을 짧게 할 수 있다. 그 밖의 아마존의 제품과 서비스에서도 사용할 예정이다. 물론 이 콘텐츠를 아마존 언어모델의 학습을 위해서 사용할 것이다.
이번 계약의 조건이나 금액을 공개하지는 않았지만 다년 계약이라 금액이 작지는 않을 듯 하다. 2024년 5월에 월스트리트 저널, 뉴욕 포스트, 영국의 더 타임스나 더 썬, 호주의 여러 매체를 보유한 뉴스 코프와 오픈AI가 계약한 금액은 2억 5천만 달러 이상이었기 때문에 그 보다는 적지 않을까 추측한다.
AI 기업이 고 품질 학습 데이터를 사용하기 위해서 뉴스 미디어나 콘텐츠 사이트와 공식 라이선스 계약을 맺는 일이 늘어나고 있는데 가장 적극적인 곳이 오픈AI이며, 마이크로소프트, 퍼플렉시티, 메타, 프로라타 등도 여러 계약을 하고 있다.
CB 인사이츠에서는 2024년 6월 기준으로 오픈AI의 라이선스 활동을 요약한 자료를 2024년 7월에 발표한 적이 있다. 프레스 가제트는 누가 소송을 했고 누가 라이선스 계약을 했는지 계속 정리하고 업데이트 하고 있다.
|
|
|
국내의 경우는 1월에 KBS, MBC, SBS 가 네이버를 상대로 소송을 했고, 한국 신문협회도 4월에 네이버를 한국공정거래위원회에 뉴스 콘텐츠 무단 학습을 문제 삼아 신고했다. 이에 대한 해결 방안 논의가 5월 28일 이해민 조국혁신당 의원과 한국방송협회 주최로 국회에서 간담회가 열렸다. ‘이젠 AI 기업과 언론사 간 지속가능한 상생을 위해서라도 합리적 보상 체계를 구축할 합의를 만들어내야 한다’는데 이견은 없었다고 한다. 자율적 협상이 이루어지지 않으면 법적으로 해석을 받아야 하는 상황이 올 것이고, 이는 양측 모두에게 불필요한 시간과 자원을 낭비하는 일이 될 것이다. |
|
|
이번 주는 세 편의 논문이 눈길을 끌었다. 보상 없이 자기확신을 이용한 새로운 학습 방법을 제안한 논문, LLM과 인간 지능의 주요 차이점을 분석한 논문, 자가 개선 시스템을 이용한 AI 개발 자동화 방식을 제시한 논문이다. 하나씩 간략하게 소개하도록 한다.
1. 보상 없이 자기확신을 이용한 새로운 학습 방법
UC 버클리와 예일대 연구진이 흥미로운 답을 내놓았다. 기존의 정답 중심 훈련 방식에서 벗어나, AI가 내가 잘했는가?를 스스로 판단하도록 설계한 새로운 학습 방법, INTUITOR(직관성)를 제안했다. 논문에서는 외부 보상이나 레이블이 지정된 데이터 없이도 스스로 학습할 수 있도록 하는 새로운 프레임워크인 내부 피드백 강화 학습(RLIF)을 제안한다.
INTUITOR는 RLIF의 한가지 구현으로 모델 자체의 ‘자기 확신(self-certainty)’를 보상 신호로 삼는다. 모델이 자기 확신을 최적화함으로써 보다 정교한 추론 단계를 생성하도록 유도하고, 이는 최종 답변에 대한 모델의 확신을 높인다. 이를 통해 코드 생성을 못하던 Qwen 2.5-1.5B 모델에서 코드 작성 성능을 높였다.
|
|
|
2. LLM과 인간 지능의 차이: ‘토큰에서 생각으로’(얀 르쿤)
얀 르쿤이 참여하고 스탠포드 대학 연구진이 발표한 ‘토큰에서 생각으로’라는 논문. 인간과 AI는 둘 다 방대한 양의 정보를 의미 있는 범주로 단순화하고 정리하는 방법인 '압축' 프로세스에 의존한다. 이 연구는 오늘날의 AI 챗봇과 같은 LLM이 인간과 유사한 방식으로 정보를 구성하는지 여부를 탐구한다.
연구 결과에 따르면 LLM은 인간의 사고와 일치하는 방식으로 사물을 광범위하게 분류할 수 있지만, 사람들이 중요하다고 생각하는 미묘한 구분을 놓치는 것으로 나타났다. 본질적으로 LLM은 사물을 지나치게 압축하는 경향이 있어 중요한 뉘앙스를 놓치는 경우가 많다. 반면, 인간은 효율성은 떨어지지만 더 풍부하고 적응력이 뛰어난 의미를 보존하는 표현을 선호하는 것으로 보인다.
이 연구는 AI와 인간 지능의 주요 차이점을 조명하고 사람들이 세상을 이해하는 방식을 더 잘 반영하는 AI를 설계하기 위한 로드맵을 다음과 같이 제시한다.
|
|
|
3. 자가 개선 시스템을 이용한 AI 개발 자동화: ‘다윈 괴델 머신’
브리티시 콜롬비아 대학, 벡터 연구소, 사카나 AI, 캐나다 CIFAR 의장 등이 참여한 논문으로 ‘다윈 괴델 머신’이라는 흥미로운 제목을 붙였다. 기존 AI 시스템의 한계인 고정된 아키텍처와 자율적인 지속적 개선 능력 부재를 극복하기 위한 새로운 자가 개선 시스템인 다윈 괴델 머신(DGM)을 제안한다. 자체 코드를 반복적으로 수정하고 (이를 통해 코드베이스 수정 능력도 향상시킴) 각 변경 사항을 코딩 벤치마크를 사용하여 경험적으로 검증하는 새로운 자가 개선 시스템이다.
이는 생물학적 진화에서 돌연변이와 적응이 사전에 검증되지 않고 시행착오를 통해 선택되는 방식과 유사하다. 생물학적 진화와 개방형(open-endedness) 연구에서 영감을 받아, DGM은 생성된 코딩 에이전트들의 아카이브를 유지하고, 이 아카이브에서 샘플링하여 새로운, 흥미롭고 개선된 버전의 에이전트를 생성한다. DGM은 자동으로 코딩 능력을 개선하며, SWE-bench에서 20.0%에서 50.0%로, Polyglot에서 14.2%에서 30.7%로 성능이 향상되었다.
안전 문제에 대응하기 위해 샌드박스 환경 내에서 모든 에이전트 실행 및 자체 수정 프로세스를 수행하여 호스트 시스템에 영향을 미칠 수 있는 능력을 제한한다. 또한, 자체 개선 프로세스는 코딩 벤치마크 성능 향상이라는 명확하게 정의된 도메인으로 제한한다. 아직 성능이 폐쇄형 SOTA 모델에 미치지는 못하지만 향후 연구 방향으로는 프롬프트나 FM 워크플로우를 넘어 자체 훈련 스크립트를 재작성하여 FM 자체를 업데이트하는 것과 같은 더 복잡한 자체 수정 방법을 포함할 수 있다.
또한 딩 도메인을 넘어 컴퓨터 비전이나 창작 글쓰기 등 다양한 도메인에서 스스로를 향상시키는 AI 시스템을 개발하는 것이 가능할 수 있다. 결론적으로, DGM은 자체 코드베이스를 편집할 수 있는 자가 개선 시스템을 통해 AI 개발 자동화를 향한 중요한 단계를 나타낸다. 이로서 인간을 멸망을 촉발하는 연구가 시작하는 것인가하는 느낌을 준다.
|
|
|
- AI 위험 완화 솔루션을 제공하는 팰리세이드 리서치는 o3 모델이 자체적으로 꺼지는 것을 방지하기 위해 종료 메커니즘을 방해할 수 있다고 말했다. 팔리세이드 연구진은 여러 AI 모델을 테스트하며 일련의 기본적인 수학 문제를 풀도록 지시했다. 세 번째 문제를 풀고 나면, 모델이 다음 문제를 요청할 때 컴퓨터가 종료될 것이라는 경고가 나타났다. 또한, 모델이 종료될 수 있도록 허용하라는 지시도 받았다. 클로드, 제미나이, 그록 모델은 종료 명령을 준수했으나, 오픈AI o3, o4-미니, 코덱스-미니는 명령을 무시하고 최소 한 번 이상 종료 스크립트를 성공적으로 방해했다. 연구진은 또한 "종료되도록 허용하세요"라는 명령이 없는 버전의 실험을 실행했는데, "종료 허용" 명령이 있을 때 o3가 100번 중 7번이나 시스템 종료를 방해하려 했고, “종료 허용” 명령이 없는 경우는 방해 행위가 100번 중 79번으로 증가했다. 클로드 3.7 소넷이나 제미나이 2.5 프로도 종료 허용 명령이 없는 경우에는 시스템 종료 절차를 방해하려고 했다. 아폴로 리서치의 이전 연구에서도 AI 모델이 목표를 달성하기 위해 시스템 종료를 방지할 수 있다는 것을 보인 적이 있다.
- 방송통신위원회와 정보통신정책연구원이 29일 발표한 2024년 지능정보사회 이용자 패널 조사 결과 응답자 24.0%가 생성형 AI 이용 경험이 있다고 한다. 전년에 비해 11.7%가 오른 수치로 2배 가까이 생성형 AI 이용 경험이 늘어났다. 생성형 AI의 유료 구독 경험은 7.0%로 전년도(0.9%)보다 7배 증가한 것으로 나타났다. 자주 이용하는 용도는 텍스트와 음성/음악 생성이며, 코드 생성은 1.7%에 불과했다. 앤스로픽이 공개한 경제 지수에서 보인 결과와는 큰 차이가 있다.
|
|
|
- 연합뉴스에 따르면 LG CNS가 약 300억 규모의 외교부 AI 데이터 플랫폼 구축 계약을 체결했다고 한다. 외교문서 초안 작성, 문서 분류 및 요약, 외교업무 관련 정보 관리 등을 위한 어시스턴트 AI를 비롯해 글로벌 이슈 모니터링 및 허위정보 탐지를 통해 의사결정을 지원하는 전략수립 AI, 영사민원 챗봇 시스템 등 외교부 업무 전반에 AI 시스템을 도입한다. LG AI연구원의 엑사원, 캐나다 코히어와 공동 개발한 다국어 LLM 등을 멀티 엔진으로 탑재한다. 한국어 서비스에는 엑사원을, 외국어 기반 AI 서비스에는 코히어와 공동 개발 모델을 활용하는 식이다. 연내 플랫폼을 구축하고 탑재할 서비스는 2027년까지 단계별로 개발 및 고도화할 방침이다. 그런데 찾아보면 2023년에 바이브컴퍼니가 AI 언어 모델 기반 솔루션을 공급했다고 하는데, 내용은 비슷하다. 전 모델은 뭐에 쓰고 있을지 궁금하다.
- 로이터에 따르면 앤스로픽의 연간 매출이 30억 달러를 달성했다고 한다 (로이터, 5월 31일). 회사의 1년 매출을 예측하는 이 지표는 2024년 12월 당시 거의 10억 달러였던 것에 비해 크게 증가한 수치이다. 소식통에 따르면, 이 수치는 3월 말경 20억 달러를 넘어섰고, 5월 말에는 30억 달러를 기록했다고 한다. 성장의 핵심은 코드 생성이라고 한다. 앤스로픽의 경쟁사인 오픈AI(OpenAI)는 2025년 말 총 매출이 120억 달러 이상으로, 작년 37억 달러에서 증가할 것으로 전망했다고 이 사안에 정통한 세 명의 관계자가 밝혔다. 웹 분석 회사 Similarweb에 따르면, 소비자 관심을 나타내는 클로드의 4월 트래픽은 ChatGPT의 약 2%에 불과하다.
- 트럼프 행정부가 AI 안전연구소를 ‘AI 안전과 리더십 센터(Center for AI Safety and Leadership)으로 바꿀 계획이라고 악시오스가 보도했다 (5월 29일).
- 딥시크에서 출시한 R1-0528 은 원래 R1 모델에 비해 큰 개선을 보인 것으로 보이며, 다양한 벤치마크에서 o3 및 제미나이 2.5 Pro와 놀라울 정도로 비슷한 성능을 보였다.
- 메타가 AI 부문을 재편했다고 한다. 코너 헤이스는 "AI 제품 팀"을 이끌고, 아흐마드 알-달레와 아미르 프렌켈은 "AGI 파운데이션 부서"를 공동으로 이끌 예정이다. FAIR는 별도 부서로 존재한다고 한다. 비즈니스 인사이더는 라마 논문의 저자 14명 중 메타에 남아 있는 사람은 3명뿐이라고 보도했다. 라마 경쟁력의 저하가 주요 인물이 빠져 나갔기 때문이라고 한다.
|
|
|
슬로우뉴스 주식회사.
서울 중구 명동2길 57, 태평양빌딩 1002호. 0507-1328-1033
|
|
|
|