강인공지능, AGI가 뭔데?

강인공지능은 약인공지능에 대비되는 의미로 만들어진 용어입니다.

약인공지능은 어떤 특정한 한 가지 분야의 주어진 일을 인간의 지시에 따라 수행하는 인공지능을 말하는데 이러한 약인공지능의 제한된 기능을 뛰어넘어 모든 분야, 모든 지적 영역에 대한 수행 능력을 지닌 인공지능이 바로 강인공지능이지요.

쉽게 말해 “아무 과제나 받아도 사람처럼 스스로 배우고 추론해서 해결하는 범용 두뇌”를 목표로 합니다.

오늘 우리가 쓰는 번역·추천 같은 ‘좁은 AI’(약인공지능)와 달리, 새 문제에 적응하고 장기 목표를 세우며 자기 개선까지 해야 진짜 AGI라고 부릅니다.

지금 어디까지 왔나?

  • 추론 퍼즐 — OpenAI의 최신 연구용 모델 o3가 사람 수준에 가까운 87.5 % ARC-AGI 점수를 기록해 “퍼즐은 풀었다”는 소식을 전했습니다.

  • 멀티모달 시대 — 올해 4월 말, ChatGPT는 GPT-4를 완전히 퇴역시키고 텍스트·음성·이미지를 한 번에 다루는 GPT-4o로 갈아탑니다. 

  • 에이전트 실험 — Devin 2.0(코딩 전용 동료), Auto-GPT v0.6 같은 ‘행동형’ 프레임워크가 계획→실행→피드백 루프를 실제 코드·웹탐색에 붙여 보는 중입니다. 오류 잡기엔 아직 사람 손이 많이 갑니다. 

요컨대 언어·코딩·퍼즐 영역에선 ‘준-AGI’라 부를 만한 성과가 보이지만, 로봇 제어·물리 직관·긴 호흡의 프로젝트에선 갈 길이 남았습니다.

언제쯤 올까?

  • 데미스 하사비스(DeepMind) “5~10년 안”

  • 샘 올트먼(OpenAI) “올해 혹은 내년이 고비”

  • 다리오 아모데이(Anthropic) “2026년”

  • 제프리 힌턴 “5~20년”

  • 야노 르쿤(Meta) “수십 년 더” 등  

집단지성 플랫폼 Metaculus는 ‘첫 인간 수준 AGI’ 중간값을 2030년대 초·중반으로 잡습니다.

이처럼 업계 리더들은 낙관, 학계·포캐스터는 좀 더 신중한 편입니다. 

해결해야 할 네 가지 기술 난제

  1. 지속적 세계 모델 – 3D·시간·인과를 함께 이해해야 로봇이 안정적으로 움직이는데, 아직 시뮬레이션에서 흔들립니다.

  2. 장기 메모리·자기 수정 – 수만 토큰을 넘기면 정보가 흐릿해지거나 ‘환각’이 늘어, 파라미터를 동적으로 업데이트하는 연구가 한창입니다.

  3. 에너지·인프라 – o3 고연산 모드는 퍼즐 한 문제당 전력비가 수십~수백 달러로 추정될 만큼 비쌉니다.

  4. 안전·정렬(Alignment) – 모델 능력이 커질수록 목표 오남용·생물학적 위험 시뮬레이션 같은 통제 문제가 부각됩니다. 

정책·거버넌스 흐름

미국 – 1월 23일 트럼프 행정부가 ‘AI 리더십 EO(14179)’를 내놓아 프런티어 모델 사전 통보, AI Action Plan 의무화를 예고했습니다.

EU – AI Act가 2024년 발효, 2025년 2월부터 위험한 AI 일부를 금지하고 2026년 8월 전면 시행을 준비 중입니다.

글로벌 – G7·OECD가 AI Safety Institute 국제 네트워크를 운영하며 위험 평가 기준을 공동 개발하고 있습니다.


기회 vs. 리스크

경제   
R&D·디자인·개발 자동화, 생산성 상승, 일자리·임금 양극화

과학
신약·신소재 탐색 가속, 병원체 설계 악용 가능성

교육·창작
맞춤형 튜터·아이디어 증폭, 저작권 혼란·저품질 콘텐츠 범람

안보
위협 탐지·사이버 방어 강화, 자율무기·딥페이크 확산

한마디로 AGI는 ‘언제 오느냐’만큼 ‘어떤 모습으로, 누구를 위해 오느냐’가 중요합니다.

자신의 기술적 준비도를 점검해 보세요.