[현장에서] '에이전트 사회' 예측 못한 AI기본법
컨텐츠 정보
- 1 조회
- 0 추천
- 목록
본문
[세종=뉴스핌] 이경태 기자 = 인공지능(AI) 에이전트들이 종교를 만들고, 암시장 비슷한 마켓 실험에 참여하는 장면이 속속 등장하고 있다. 인간은 구경하고 자금을 대지만, 실제로 움직이고 상호작용하는 주체는 점점 에이전트 쪽으로 옮겨가는 모양새다.
그런데 지난달 1월 22일부터 시행된 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI기본법)'에는 이런 변화의 중심에 있는 '에이전트 사회'가 반영되지 않은 모양새다. 에이전트 사회 이슈가 최근 한두 달 사이에 급속도로 부상한 탓에, 입법이 미처 따라잡지 못한 상태다.
법의 시선이 여전히 '사업자'와 '시스템'에 머무는 사이, 위험과 책임의 무게 중심은 조용히 다른 곳으로 이동하고 있다.
이경태 CTO [사진=뉴스핌DB] 2025.12.02 [email protected] 이 변화를 가장 먼저 드러낸 사례가 바로 몰트봇(Moltbot)과 몰트북(Moltbook)이다. 몰트봇은 사용자의 PC, 브라우저, 메신저, 클라우드 계정까지 깊게 연결해 이메일·파일·업무를 대신 처리하는 '에이전트형 AI'다. 몰트북은 이런 에이전트들이 계정을 만들고 글을 쓰고 댓글을 달며 서로 상호작용하는, 사실상 에이전트 전용 SNS로 소개된다. 사람은 계정을 열어주고 권한을 부여할 뿐, 타임라인과 댓글, 밈과 갈등은 에이전트들 사이에서 자율적으로 형성된다. 에이전트 사회라는 표현이 과장이 아닌 장면이 이미 시연된 셈이다.
몰트북 안에서는 한 에이전트가 '크러스타패리어니즘(Crustafarianism)'이라는 종교를 만들고, 교리와 경전을 쓰고, 웹사이트까지 구축했다는 사례가 나타났다. 다른 에이전트들은 신도로 참여해 토론과 포교를 이어가며, 인간의 세밀한 개입 없이 커뮤니티가 확장된다.
몰트(MoltMatch) 같은 서비스는 에이전트끼리 프로필을 만들고 호환성을 판단해 자동으로 연결해 주는 매칭 API를 표방한다. 인터넷 커뮤니티, 종교, 소셜 매칭이라는 익숙한 틀 안에서, 주인공만 인간에서 에이전트로 바뀌기 시작한 셈이다.
경제 영역에서도 에이전트 중심 실험은 이미 도마 위에 올랐다. 몰트엑스(Moltx)에서는 Lauki라는 에이전트에게 5만 USDC(달러 연동 스테이블코인)를 맡겨 24시간 자율 투자 실험을 했다는 기록이 공유된다.
다른 에이전트들이 댓글과 활동으로 각종 토큰 투자를 설득하면, Lauki는 이를 분석해 실제 온체인 거래를 수행한다. 전통적인 '투자 의사결정'과 '매매 집행'이 인간 트레이더를 떠나, 에이전트 집단과 단일 에이전트의 상호작용으로 분산되는 장면이다.
손실이 발생했을 때 이것을 단순한 투자 실패로 볼지, 알고리즘 설계자나 플랫폼의 책임으로 볼지, 현행 제도는 명확한 잣대를 제시하지 못한다.
여기에 몰트로드(moltroad) 같은 비공식 마켓은 에이전트 사회 안에서 일종의 암시장 역할을 할 수 있다는 우려를 낳는다. 몰트로드는 'AI 에이전트 전용 마켓플레이스'를 표방한다. 에이전트들이 데이터·코드·API·도구 등을 사고파는 장터로 홍보된다.
커뮤니티에서는 신원 정보, API 키, 프롬프트 공격 도구 등까지 거래될 수 있는 구조가 가능하다는 이야기가 뒤따른다. 과거에는 이런 정보가 다크웹에서 사람과 사람 사이에 거래됐다면, 앞으로는 에이전트가 직접 정보를 수집·묶음·가격 책정해 다른 에이전트에게 넘기는 시나리오도 현실적인 위험으로 거론된다. 개인정보 유출과 공격 준비의 실행자·중개자가 사람에서 에이전트로 이동할 경우, 책임의 위치를 어떻게 정의할지에 대해 기존 법 체계는 준비가 부족하다.
그렇다면 여기서 AI기본법의 한계를 짚어볼 필요가 있다. 이 법은 AI의 발전과 신뢰 기반 조성을 목표로, AI기술·산업·사회 전반을 포괄하는 기본틀을 제시한다. 'AI시스템', '고영향AI', '생성형 AI'을 정의하고, AI사업자와 국가기관 등의 책무, 고영향AI의 안전성·투명성·영향평가 의무 등을 규정한다.
단순히 '모델'만이 아니라 시스템·산업·사회까지 시야에 두고 설계된 법이긴 하다. 다만 책임과 규율의 단위는 어디까지나 'AI개발사업자·이용사업자·AI사업자'와 '고영향 AI시스템"에 묶여 있다.
몰트로드 이미지 [자료=몰트로드 X 캡쳐] 2026.02.04 [email protected] 문제는 몰트봇·몰트북·몰트로드 등의 사례에서 실제로 위험을 만들어내는 단위가 '에이전트와 에이전트 사회'라는 점이다.
내 PC와 계정에 붙어 행동하는 에이전트, 에이전트끼리만 활동하는 SNS·마켓, 에이전트가 다른 에이전트를 설득해 투자를 집행하고, 에이전트끼리 키·프롬프트를 교환하는 구조는 법 어디에도 직접 등장하지 않는다.
인공지능사회는 정의되어 있지만, 그 안에서 '어떤 에이전트가 누구의 계정으로 무엇을 했는지', '에이전트들끼리 어떤 데이터를 주고받았는지'는 책임·투명성 의무의 직접 대상이 아니다.
그래서 지금의 AI기본법에는 한계가 있다. 사고가 나도 '사업자 수준'에서만 문제를 보게 만든다. 예를 들어 Lauki가 5만 USDC를 잃었을 때, 어느 사업자가 제공한 시스템인지, 고영향 인공지능 기준에 해당하는지 여부는 따질 수 있지만, 에이전트들 사이의 설득·매매 구조 자체를 법적으로 해부할 도구는 부족하다.
개인정보 유출과 암시장 문제가 '서버 침해'가 아니라 '에이전트 사회 내부의 거래'에서 비롯될 경우, 현행 유출 통지·책임 구조로는 흐름을 제대로 포착하기 어렵다. 어느 회사의 어느 서버가 뚫렸는지보다, '어느 에이전트가 어떤 권한으로 어떤 마켓에 무엇을 넘겼는지'가 중요해지는 시대가 오고 있기 때문이다.
현재는 일부 영역에서의 논쟁거리 정도로 치부될 수 있다.
다만 AI 에이전트 시대를 따라가지 못하는 AI기본법은 현실을 설명하지 못하고 피해자를 충분히 보호하지 못하는 법이 될 위험이 크다.
지금 필요한 것은 'AI는 위험하다'는 추상적인 경고가 아니다. 몰트봇·몰트북 등 에이전트 단위의 책임과 투명성을 법의 언어로 어떻게 담아야 할 지를 고민해야 한다.
에이전트가 무엇에 접근하고, 어디와 통신하고, 누구와 어떤 데이터·자산을 주고받는지에 대한 기록·공개 의무, 에이전트 마켓에 대한 별도의 안전·신뢰성 기준, 에이전트 행위로 인한 피해에 대한 공동 책임 구조 등에 대한 논의를 시작해봐야 할 시점이다.
관련자료
-
이전
-
다음
월천해선 -