정부가 더 이상 법정에서 Anthropic과 싸우지 않는다. 대신 어떤 AI 회사도 정부 요청을 거절할 수 없도록 규칙을 다시 쓰고 있다. 그리고 우리 모두를 지키는 안전 장치가 무너질 수 있다.
국방부와 Anthropic의 대치가 정부의 AI 시스템 무제한 접근 추진의 끝이라고 생각했다면, 다시 생각해봐야 한다. 진짜 싸움은 훨씬 조용한 곳에서 벌어지고 있다. 바로 연방 조달 규칙 속에서다.
모두가 국방부의 법정 싸움에 눈을 돌리고 있을 때, 미국 정부의 또 다른 부처는 이미 해결책을 준비하고 있었다. 사무용품부터 소프트웨어까지 정부가 무엇을 사는지 결정하는 계약을 작성하는 기관 GSA(일반 서비스청)가 조용히 AI 조달 규칙을 다시 쓰고 있었던 것이다. 이 규칙이 확정되면, 정부가 AI를 사는 방식만 바뀌는 게 아니다. AI 회사들이 법적으로 할 수 있는 일 자체가 바뀐다.
이게 생각보다 훨씬 중요한 이유
조달을 정책 수단으로 쓰는 건 합리적이다. 정부는 세금을 공익에 기여하는 회사에 쓸 책임이 있다. 이건 논쟁의 여지가 없다. 오픈소스? 상호운용성? 수리할 권리? 이런 건 정부가 지원할 만한 가치 있는 것들이다.
하지만 GSA의 새 지침은 선을 넘었다. 오늘 기술 관련 비영리 단체들이 의견을 제출했다 (민주주의 센터, Protect Democracy Project, EPIC과 함께). 왜 이게 위험한지 설명하면서 말이다.
이 규칙에 정확히 뭐가 들어있나?
특히 위험한 조항 두 가지가 눈에 띈다. 첫 번째는 계약 업체가 AI 시스템을 “모든 적법한 목적”을 위해 정부에 라이선스해야 한다는 것이다. 무서운 부분은 여기다. 정부의 “적법한”이라는 정의는… 글쎄, 꽤 유연하다고 할 수 있다. 연방 정부는 감시법의 허점을 파고드는 능력을 증명해왔다. 노골적으로 법을 어긴 적도 있다. 정말로 이들에게 자신들이 원하는 데이터를 마음껏 캐도록 허락하고 싶은가?
“회사의 안전 장치가 정부 요청에 응하는 걸 막을 수 있다면, 회사는 그 장치를 없애야 한다.”
두 번째 조항은 훨씬 노골적이다. AI 시스템은 “계약자나 서비스 제공자의 자율적 정책에 기반해 데이터 산출물을 거절하거나 분석 수행을 거절하지 않아야 한다”는 것이다. 쉽게 말해서, 회사가 오용을 막기 위해 안전 기능을 만들었다면, 연방 계약 하에서 그 기능들은 짐이 되는 셈이다. 없애거나 계약을 포기하거나.
이게 정말 안전에 관한 건가, 아니면 통제에 관한 건가?
여기서 경보음이 울려야 한다. 정부는 이걸 “이념적으로 중립적인” 미국 AI 혁신 촉진이라고 포장하고 있다. 하지만 실제 텍스트에는 기술적으로 말이 안 되는 조항들이 들어있다. 예를 들어 모호한 “반(反)사회정치적” 요구사항들은 엔지니어들이 실제로 만들 수 있는 것과 아무 상관없다. 이건 안전 기능이 아니다. 정치적 충성도 테스트다.
진짜 목표는 또 다른 Anthropic 상황을 방지하는 것 같다. 그 대치에서 Anthropic은 감시 목적의 사용을 거절했다. 이제 정부는 “거절”을 법적으로 불가능하게 만드는 규칙을 원하고 있다.
이 규칙이 통과되면 뭐가 일어나나?
이건 단순히 한 계약에만 적용되는 게 아니다. 이건 앞으로 모든 연방 계약의 표준 조항이 된다. AI 회사라면 연방 사업을 원할 때마다 안전 조치를 없애야 한다는 뜻이다. 그리고 정부 계약을 위해 안전 기능이 벗겨지고 있다면, 왜 회사들은 상용 목적으로 유지할까? 굳이 비용을 들여서?
결국 정부 사용을 훨씬 넘어서 산업 전체에 영향을 미치는 오한 현상이 생긴다. 민간 부문이 지켜본다. 경쟁력을 유지하려고 다른 회사들도 따라간다. 조달 규칙으로 시작한 게 산업 표준이 되는 거다.
여기서 주목할 만한 역사적 사례가 하나 있다. 냉전 중에 정부는 조달 요건으로 계약업체들을 군사화 방향으로 밀어붙였다. 그 방식들 중 대부분은 지정학적 정당성이 사라진 후에도 계속됐다. 지금 AI에서 똑같은 일이 실시간으로 벌어지고 있는 것이다.
기술 비영리 단체들은 뭐라고 하나?
의견을 제출하는 단체들은 정부의 AI 지출 자체에 반대하는 게 아니다. 조달을 통해 공개 정책 논의가 되어야 할 것을 몰래 추진하는 걸 반대하는 거다. 정부가 감시 능력을 지원하고 싶으면, 그건 의회 투표로 결정돼야 한다. 안전 조치를 제한하고 싶으면, 공개적으로 작성된 규정이어야 하고, 공개 의견 수렴 기간이 있어야지, GSA 지침 속에 묻혀있으면 안 된다는 것이다.
이들의 입장은 간단하다. 정부는 처음부터 다시 시작해야 한다. 정당한 부분 (미국 AI 개발 촉진, 상호운용성 보장)과 위험한 부분 (회사들에게 안전장치 비활성화 강요)을 분리해야 한다는 것이다.
큰 그림 보기
이건 정부의 권력이 기술 정책에서 어떻게 움직이는지 보여주는 시험 사례다. Anthropic 싸움은 눈에 띄었다. 모두 지켜볼 수 있었고, 의견을 형성했고, 칼럼을 썼다. 이 조달 재작성? 연방관보(Federal Register) 업데이트를 읽지 않는 한 눈에 띄지 않는다. 사람들이 알아차릴 쯤이면 규칙은 이미 시행 중이고, 계약에 포함되어 있고, 일상화되어 있다.
바로 그 일상화가 정부에게 진짜 승리다. GSA가 이념을 신경 쓰기 때문은 아니다. 회사들이 안전 기능 만드는 걸 멈추면, 완전히 멈춘다는 뜻이기 때문이다. 이미 존재하지 않기로 결정된 것은 요구할 수 없다.
🧬 관련 내용
자주 묻는 질문
GSA 조달 제안이 정확히 뭘 하는 건가? 연방 정부와 계약하는 AI 회사들에게 시스템을 “모든 적법한 목적”을 위해 라이선스하고, 정부 요청에 응하는 걸 막을 수 있는 모든 안전 기능을 비활성화하도록 강요한다. 이 규칙은 앞으로 모든 연방 계약에 적용된다.
AI 회사들이 정말 이 규칙을 따라야 하나? 아직 아니다. 규칙은 여전히 의견 수렴 기간에 있다. 하지만 확정되면, 그렇다. 연방 사업을 원하는 어떤 회사든 따라야 한다. 이게 연방 계약을 생존 사업으로 보는 회사들에게는 산업 전체에 압박을 줄 수 있다.
이게 일반적인 정부 조달과 다른 점이 뭔가? 일반적인 조달은 이미 존재하는 물품을 산다 (소프트웨어, 하드웨어, 서비스). 이 규칙들은 회사들이 정부에 판매하기 전에 제품이 작동하는 방식 자체를 근본적으로 바꾸도록 강요한다. 단순히 물건을 사는 게 아니라, 판매 조건으로 구조적 변화를 요구하는 것이다.