https://the-decoder.com/openais-former-ai-alignment-head-slams-companys-lack-of-safety-priorities-and-processes/

OpenAI의 전 AI 조정 및 초지능 AI 안전 책임자였던 얀 라이크는 안전 우선순위와 프로세스가 부족하다는 이유로 전 직장을 신랄하게 비판했습니다.


Leike는 OpenAI가 초지능을 위한 AI 안전 연구를 하기에 세계 최고의 곳이라고 믿었기 때문에 이곳에 합류했습니다. 하지만 한동안 회사의 핵심 우선순위에 대한 OpenAI의 리더십에 동의하지 않았고, 결국 '한계점'에 도달했다고 라이크는 말합니다.


어제까지 OpenAI의 AI 조정 및 초지능 안전 책임자였던 라이크는 저명한 AI 연구자이자 공동 창립자, AI 안전 전문가인 일리아 수츠케버가 회사를 떠난 직후 사임을 발표했습니다.


레이크는 이제 OpenAI가 차세대 AI 모델을 준비하고 보호하는 데 훨씬 더 많은 컴퓨팅 대역폭을 투입해야 한다고 확신하고 있다고 말합니다.


지난 여름, OpenAI는 슈퍼 AI 조정 팀을 발표하면서 당시 사용 가능한 컴퓨팅 성능의 20%를 안전 팀에 할당하겠다고 밝힌 바 있습니다. 하지만 그 약속은 지켜지지 않았습니다.



라이크는 AI 안전은 큰 과제이며, OpenAI는 잘못된 길을 가고 있을지도 모른다고 말합니다.


"인간보다 더 똑똑한 기계를 만드는 것은 본질적으로 위험한 작업입니다. OpenAI는 전 인류를 대신해 막중한 책임을 짊어지고 있습니다."라고 라이크는 말합니다.


지난 몇 달 동안 라이크의 팀은 "바람을 거스르는 항해"를 해왔습니다. 때로는 컴퓨팅 성능을 확보하기 위해 싸워야 했습니다. 라이크에 따르면 이 중요한 연구를 수행하는 것이 점점 더 어려워지고 있다고 합니다.


안전 문화와 프로세스는 "반짝이는 제품"에 밀려 뒷전으로 밀려났다고 라이크는 말합니다. "우리는 AGI의 영향에 대해 엄청나게 진지하게 생각해야 할 때가 한참 지났습니다."

서츠케버와 라이크의 퇴사는 앞서 OpenAI의 지나친 상업화와 빠른 성장에 반대하는 목소리가 커지고 있다는 소문과 맞물려 있습니다.

https://twitter.com/janleike/status/1791498174659715494