[경제] "오픈AI가 위험 경고 불법적으로 막아" 美 SEC에 내부고발 > 멤버뉴스

본문 바로가기

멤버뉴스

[경제] "오픈AI가 …


1



오픈AI 로고
[로이터 연합뉴스 자료사진. 재판매 및 DB 금지]

(샌프란시스코=연합뉴스) 김태종 특파원 = 챗GPT 개발사 오픈AI가 직원들에게 AI(인공지능) 기술 위험을 규제 당국에 알리지 못하도록 불법적으로 막았다는 내부 고발이 제기됐다.


13일(현지시간) 워싱턴포스트(WP)에 따르면 오픈AI 일부 직원들은 이달 초 연방거래위원회(SEC)에 회사의 비밀 유지계약에 대한 조사를 촉구하는 서한을 보냈다.


내부고발자들(whistleblowers)은 오픈AI 기술이 인류에게 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 오픈AI가 불법적으로 금지했다고 주장했다.


이들은 오픈AI가 "직원들과 지나치게 제한적인 고용, 퇴직 및 비밀 유지 계약을 체결했다"며 "이를 근거로 회사 측은 연방 규제당국에 회사에 대한 우려를 제기한 직원들에게 책임을 물을 수 있다"고 밝혔다.


이들은 "회사가 직원들에게 내부고발자 보상에 대한 연방 권리를 포기하도록 하는 직원 협약에 서명하도록 했다"며 "이 협약은 또 직원들이 연방 당국에 정보를 공개하고자 할 경우 회사의 사전 동의를 받도록 했다"고 강조했다.


이처럼 지나치게 광범위한 협정은 회사 내부의 치명적인 정보를 밝히려는 내부 고발자 보호를 위한 연방법과 규정을 위반한 것이라고 이들은 주장했다.


내부고발자 중 한 명은 "이 계약서는 "우리는… 직원들이 연방 규제 당국과 이야기하는 것을 원하지 않는다"는 메시지를 보낸 것"이라며 "AI 기업이 감시와 반대로부터 스스로를 보호한다면 안전하고 공익에 부합하는 기술을 개발할 수 없다"고 말했다.


내부고발자들의 서한은 비영리 단체로 시작한 오픈AI가 자사의 AI 기술을 만드는 데 있어 안전보다 이익을 우선시하고 있다는 우려가 제기되는 가운데 나왔다.


2015년 비영리 회사로 출발한 오픈AI는 일반 영리회사로 전환하는 방안을 검토 중인 것으로 알려졌다. 이런 가운데 AI의 장기적인 위험에 대해 연구하는 안전(safety)팀을 사실상 해체한 것으로 전해지면서 안전 우려가 나오고 있다.


이에 대해 오픈AI 대변인은 "회사의 내부 고발 정책은 직원들이 보호받는 정보를 알릴 권리를 보장한다"며 "회사는 직원들이 퇴직 시 회사를 비방하지 않는다는 조건을 없애는 중요한 변화를 이미 시행했다"고 말했다.


[email protected]


추천54 비추천 78
관련글
  • 지금 민주당발 검찰개혁안은 심각한 위험이 있다는 장애인권변호사의 지적.
  • 위험한 인도를 여행중인 유튜버
  • 3골 차이라도 위험하다니까.mp4
  • <9월 5일: 위험한 특종> - 미디어의 맨얼굴을 보다.(노스포)
  • 한동훈 “계엄 당일, ‘국회 가면 목숨 위험’ 전화 받았다”
  • [알쓸범잡] 아이 사진이나 정보를 인터넷에 올리면 위험한 이유
  • 배 가르는 수술이 위험한 이유
  • 커플 요가의 위험성
  • 부산, 광역시 첫 소멸위험지역
  • 빙하 속 고대 바이러스가 깨어나면 사람보다 세균들이 더 위험함
  • 실시간 핫 잇슈
  • 올데이 프로젝트, 데뷔 4일만에 멜론 TOP100 1위 + 엠카 데뷔무대
  • 벤피카 vs 첼시 경기가 4시간 38분이나 걸린 사연
  • 보스턴 즈루할러데이 포틀로이적
  • 노스포)25년 상반기 영화관 관람 결산
  • 트럼프 "8월1일부터 한국 일본에 25% 상호관세"…서한 공개
  • 해양수도, 잘 준비하고 있는 것일까? <2> 부산 집중
  • 안세영 요넥스와 4년 100억 계약
  • SSG 랜더스 새 홈구장(청라돔) 상황
  • 기동전사 건담 시드 감상문
  • 케이팝데몬헌터스 삽입곡 모음
  • 회사소개 개인정보처리방침 서비스이용약관

    Copyright © www.webstoryboard.com All rights reserved.