United States CRITICAL 2026년 5월 5일 업데이트

미국 AI 모델 개발 및 안전성 테스트 연대기

2023년 바이든 행정부는 AI 위험 관리 프레임워크와 포괄적인 행정명령을 통해 AI 안전 및 신뢰성 정책의 기반을 마련했으나, 2025년 트럼프 대통령은 이를 폐지하고 '최소한의 부담을 주는 국가 표준'을 강조하는 새로운 행정명령으로 규제 기조를 전환했다. 그럼에도 불구하고 2026년 트럼프 행정부는 상무부 산하 CAISI를 통해 구글, 마이크로소프트, xAI 등 주요 AI 기업들과 선도 AI 모델의 출시 전 테스트 협약을 체결하며 국가 안보 및 보안 취약점 평가를 위한 감독을 확대하고 있다.

📅 타임라인 (7개 이벤트)
2023-01-26
NIST AI 위험 관리 프레임워크 발표
미국 국립표준기술연구소(NIST)는 AI 시스템의 위험을 관리하고 신뢰할 수 있는 AI 개발을 촉진하기 위한 자발적 프레임워크인 AI 위험 관리 프레임워크(AI RMF) 1.0을 발표했습니다. 이 프레임워크는 AI 시스템의 설계, 개발, 사용 및 평가에 신뢰성 고려 사항을 통합하는 데 도움을 주기 위해 고안되었습니다. 이는 AI 안전 및 거버넌스에 대한 미국 정부의 첫 번째 주요 지침 중 하나였습니다.
origin
2023-07-21
백악관, 주요 AI 기업 자발적 안전 약속 확보
바이든-해리스 행정부는 아마존, 앤트로픽, 구글, 인플렉션, 메타, 마이크로소프트, 오픈AI 등 7개 주요 AI 기업으로부터 AI 기술의 안전하고 보안되며 투명한 개발을 위한 자발적 약속을 확보했습니다. 이 약속에는 제품 출시 전 내부 및 외부 보안 테스트, AI 위험 관리 정보 공유, AI 생성 콘텐츠 워터마킹 기술 개발 등이 포함되었습니다. 이는 정부와 업계 간의 협력을 통해 AI 위험을 관리하려는 초기 노력이었습니다.
response
2023-10-30
바이든 대통령의 AI 행정명령 서명
조 바이든 대통령은 '안전하고 신뢰할 수 있는 AI 개발 및 사용에 관한 행정명령'에 서명했습니다. 이는 AI의 안전성, 보안성, 신뢰성 있는 개발 및 사용을 위한 포괄적인 프레임워크를 수립하는 것을 목표로 했습니다. 행정명령은 첨단 AI 시스템 출시 전 안전성 평가 의무화, AI 안전 연구소 설립 지시, AI 생성 콘텐츠 워터마크 지침 개발 등을 포함하여 미국 AI 정책의 중요한 전환점이 되었습니다.
turning_point
2024-02-08
미국 AI 안전 연구소 컨소시엄(AISIC) 출범
미국 상무부는 국립표준기술연구소(NIST) 산하에 미국 AI 안전 연구소 컨소시엄(AISIC)을 출범시켰습니다. 이 컨소시엄은 200개 이상의 AI 개발자, 사용자, 학계, 정부 및 시민 사회 단체를 통합하여 안전하고 신뢰할 수 있는 AI 개발 및 배포를 지원합니다. AISIC은 바이든 대통령의 행정명령에 명시된 우선순위 조치에 기여하며, 레드팀 구성, 역량 평가, 위험 관리, 안전 및 보안, 합성 콘텐츠 워터마킹에 대한 지침 개발을 포함합니다.
response
2025-01-20
트럼프 행정부, 바이든 시대 AI 규제 철회
도널드 트럼프 대통령은 재집권 직후, 바이든 행정부의 '안전하고 신뢰할 수 있는 AI 개발 및 사용에 관한 행정명령'(EO 14110)을 폐지했습니다. 이는 AI 개발에 대한 정부의 감독을 줄이고 혁신을 저해하는 장벽을 제거하려는 의도로 해석되었습니다. 이 조치는 미국 AI 규제 환경에 상당한 변화를 가져왔으며, 연방 정부의 AI 접근 방식에 대한 불확실성을 증대시켰습니다.
revelation
2025-12-11
트럼프 행정부, 국가 AI 정책 프레임워크 행정명령 발표
트럼프 대통령은 '미국 AI 혁신 보호를 위한 국가 AI 정책 프레임워크 보장'에 관한 새로운 행정명령을 발표했습니다. 이 명령은 '최소한의 부담을 주는 국가 표준'을 수립하고, 혁신을 저해하는 주(州) 차원의 AI 법률에 대해 법무부가 이의를 제기하도록 지시했습니다. 이는 주 정부의 AI 규제 활동이 활발해지는 가운데 연방 차원에서 AI 정책을 중앙 집중화하려는 시도로, 연방과 주 간의 AI 규제 충돌을 심화시켰습니다.
escalation
2026-05-05
선도 AI 모델에 대한 출시 전 테스트 확대
미국 상무부 산하 AI 표준 및 혁신 센터(CAISI)는 구글, 마이크로소프트, 일론 머스크의 xAI와 새로운 AI 모델 출시 전 테스트에 대한 협약을 체결했습니다. 이는 트럼프 행정부가 실리콘밸리에 대한 감독을 강화하는 조치로, 이들 기업은 최첨단 AI 시스템을 대중에게 공개하기 전에 CAISI에 조기 접근을 제공하기로 합의했습니다. 이번 협약은 AI 모델의 보안 취약점 및 국가 안보 영향을 평가하는 데 중점을 둡니다.
response