Root Nation소식IT 뉴스초지능 인공지능을 관리하는 것은 불가능할 것이다.

초지능 인공지능을 관리하는 것은 불가능할 것이다.

-

인공 지능이 인류를 전복시킨다는 아이디어는 수십 년 동안 논의되어 왔으며 2021년 월 과학자들은 우리가 높은 수준의 컴퓨터 초지능을 제어할 수 있는지 여부에 대해 평결을 내렸습니다. 회신하다? 거의 확실하지 않습니다.

문제는 인간의 이해를 훨씬 넘어 슈퍼마인드를 제어하려면 우리가 분석할 수 있는 슈퍼마인드의 시뮬레이션이 필요하다는 것입니다. 그러나 우리가 그것을 이해할 수 없다면 그러한 시뮬레이션을 만드는 것은 불가능합니다.

2021년 논문의 저자들은 인공 지능(AI)이 어떤 시나리오를 내놓을지 이해하지 못하면 "인간에게 해를 끼치지 마십시오"와 같은 규칙을 설정할 수 없습니다. 컴퓨터 시스템이 프로그래머의 능력을 초과하는 수준에서 작동하는 즉시 우리는 더 이상 한계를 설정할 수 없습니다.

인공 지능

연구자들은 "초지능은 '로봇 윤리'라는 기치 아래 일반적으로 연구되는 것과 근본적으로 다른 문제"라고 적었다. "이것은 슈퍼마인드가 다면적이기 때문에 제어할 수 있는 것은 고사하고 인간이 잠재적으로 이해할 수 없는 목표를 달성하기 위해 다양한 자원을 동원할 수 있기 때문입니다."

팀 추론의 일부는 중단 문제, 1936년 Alan Turing이 제안했습니다. 문제는 컴퓨터 프로그램이 결론에 도달하고 답을 찾을지(중단할지) 아니면 답을 찾기 위해 영원히 매달려 있는지 알아내는 것입니다.

튜링이 도움으로 증명했듯이 지적인 수학, 우리가 일부 특정 프로그램에 대해 이것을 알 수 있지만, 작성될 수 있는 모든 잠재적 프로그램에 대해 이것을 알 수 있는 방법을 찾는 것은 논리적으로 불가능합니다. 이것은 우리를 초지능 상태에서 메모리에 가능한 모든 컴퓨터 프로그램을 동시에 저장할 수 있는 AI로 돌아가게 합니다.

또한 흥미로운 점:

예를 들어 AI가 인간에게 해를 입히고 세계를 파괴하는 것을 막기 위해 작성된 프로그램은 결론에 도달할 수도 있고 그렇지 않을 수도 있습니다(중단). 어느 쪽이든 절대적으로 확신하는 것은 수학적으로 불가능하므로 억제할 수 없습니다. 독일 막스플랑크 인간개발연구소(Max Planck Institute for Human Development)의 컴퓨터 과학자 이야드 라완(Iyad Rahwan)은 "기본적으로 억제 알고리즘을 사용할 수 없게 만든다"고 말했다.

어떤 알고리즘도 절대적으로 확신할 수 없는 AI 윤리와 세계 파괴 금지를 가르치는 대안은 초능력자의 능력을 제한하는 것이라고 연구원들은 말합니다. 예를 들어, 인터넷이나 특정 네트워크의 일부에서 차단될 수 있습니다.

최근 연구의 저자들도 인공 지능의 범위를 제한할 것이라고 믿으면서 이 아이디어를 거부합니다. 그들은 우리가 인간의 능력을 넘어서는 문제를 해결하는 데 사용하지 않으려면 왜 아예 만들까요?

인공 지능

우리가 인공지능을 발전시키려 한다면 우리가 통제할 수 없는 초지능이 언제 나타날지조차 알 수 없을 정도로 상상도 못할 일입니다. 이것은 우리가 어디로 향하고 있는지에 대해 진지한 질문을 시작해야 함을 의미합니다.

막스 플랑크 인간 개발 연구소(Max Planck Institute for Human Development)의 컴퓨터 과학자 마누엘 케브리안(Manuel Kebrian)은 "세계를 움직이는 초지능 기계는 공상과학 소설처럼 들린다"고 말했다. 그러나 일부 중요한 작업을 독립적으로 수행하는 기계가 이미 있지만 프로그래머는 이를 어떻게 배웠는지 완전히 이해하지 못합니다.

따라서 어느 시점에서 그것이 인류에게 통제 불가능하고 위험해질 수 있는지에 대한 의문이 생깁니다.

또한 읽기:

근원과학적
가입하기
에 대해 알림
손님

0 코멘트
임베디드 리뷰
모든 댓글 보기