Root Nation소식IT 뉴스기술 전문가들은 AI 실험 중단을 요구

기술 전문가들은 AI 실험 중단을 요구

-

기술 리더와 저명한 AI 연구자들이 서명했습니다. 공개 서한, AI 연구실과 회사에 작업을 "즉시 중단"하도록 요청합니다.

Steve Wozniak 및 Elon Musk를 포함한 서명자들은 위험이 범위를 넘는 기술 생산에서 최소 개월의 중단이 필요하다는 데 동의합니다. GPT-4. 이는 현재 존재하는 AI 시스템에서 기쁨과 만족을 얻고 사람들이 적응하고 유용하다는 것을 볼 수 있도록 하기 위함입니다.

기술 리더와 전문가들은 AI 실험 중단을 요구하고 있습니다.

편지에는 AI 시스템의 안전을 보장하기 위해서는 주의와 사전 고려가 필요하지만 무시되고 있다고 덧붙였습니다. 서면 또는 시각적 메시지에 텍스트로 응답할 수 있는 새로운 OpenAI 모델인 GPT-4에 대한 언급은 기업이 이 기술을 사용하여 정교한 채팅 시스템을 구축하기 위해 경쟁하는 가운데 나온 것입니다. 예, Microsoft 최근 업데이트된 Bing 검색 엔진이 4주 이상 GPT-7 모델에서 실행되고 있음을 확인했으며 Google은 최근 공식적으로 음유 시인 – LaMDA 기반의 자체 생성 인공 지능 시스템.

AI에 대한 우려는 오래전부터 존재했지만 최첨단 기술을 채택하려는 경쟁은 분명하다. 인공 지능 첫 번째는 이미 놀랍습니다. 서한에는 "최근 몇 달 동안 AI 연구실은 아무도, 심지어 저자도 이해하거나 예측하거나 안정적으로 제어할 수 없는 점점 더 강력해지는 디지털 마인드를 개발하고 구현하기 위한 제어할 수 없는 경쟁에 휘말렸다"고 밝혔다.

기술 리더와 전문가들은 AI 실험 중단을 요구하고 있습니다.

이 서한은 특히 AI와 같은 신기술의 세계적 재앙과 실존적 위험과 오용을 최소화하기 위해 노력하는 비영리 단체인 FLI(Future of Life Institute)에서 발행했습니다. 이전에 Musk는 AI 보안 연구를 위해 FLI에 천만 달러를 기부했습니다. 그와 Wozniak 외에도 서명자에는 Center for AI and Digital Policy 회장 Mark Rothenberg, MIT 물리학자이자 FLI 회장 Max Tegmark, 저자 Yuval Noah Harari와 같은 AI 분야의 세계적 지도자들이 많이 포함되어 있습니다.

Harari는 또한 지난 주 New York Times의 기사를 공동 집필하여 다음과 관련된 위험에 대해 경고했습니다. 인공 지능, Center for Humane Technologies의 창립자와 공개 서한의 다른 서명자 인 Tristan Harris와 Aza Raskin이 그와 함께 일했습니다.

작년에 700명 이상의 기계 학습 연구원을 대상으로 한 설문 조사에 따르면 거의 절반이 인간 멸종을 포함하여 AI로 인해 "매우 나쁜 결과"가 발생할 가능성이 약 10%라고 답했습니다. AI 연구에서 보안에 대해 물었을 때 응답자의 68%가 더 많이 또는 더 많이 수행해야 한다고 말했습니다.

또한 읽기:

근원engadget
가입하기
에 대해 알림
손님

0 코멘트
임베디드 리뷰
모든 댓글 보기