Root Nation소식IT 뉴스뜻밖에! (아니요). ChatGPT는 악성코드 생성에 사용됩니다.

뜻밖에! (아니요). ChatGPT는 악성코드 생성에 사용됩니다.

-

공격자들은 세계에서 가장 인기 있는 챗봇인 ChatGPT를 사용하여 새로운 변종의 맬웨어를 만들고 있습니다.

사이버 보안 회사인 WithSecure는 악명 높은 AI 작성자가 만든 악성 코드의 예를 실제로 발견했다고 확인했습니다. ChatGPT가 특히 위험한 이유는 무수히 많은 변종의 맬웨어를 생성하여 탐지하기 어렵게 만들 수 있기 때문입니다.

공격자는 ChatGPT에 기존 악성 코드의 예를 제공하고 이를 기반으로 새로운 변종을 생성하도록 지시하여 이전과 거의 같은 시간, 노력 및 지식을 소비하지 않고도 악성 코드를 영속화할 수 있습니다.

ChatGPT

이 소식은 AI가 악의적인 목적으로 사용되는 것을 방지하기 위해 AI를 규제한다는 많은 이야기가 나오는 가운데 나왔습니다. 지난 월 ChatGPT가 큰 인기를 얻었을 때 사용에 적용되는 규칙이 없었고 한 달 안에 악성 이메일과 파일을 작성하기 위해 하이재킹되었습니다.

악의적인 프롬프트가 실행되는 것을 방지하기 위한 특정 보호 장치가 모델 내에 있지만 공격자가 우회할 수 있습니다.

WithSecure의 CEO인 Juhani Hintikka는 Infosecurity에 사이버 보안 수비수는 일반적으로 인공 지능을 사용하여 위협 행위자가 수동으로 생성한 맬웨어를 찾아 필터링한다고 말했습니다.

그러나 ChatGPT와 같은 강력한 AI 도구를 무료로 사용할 수 있게 되면서 상황이 바뀌고 있는 것 같습니다. 원격 액세스 도구는 불법적인 목적으로 사용되었으며 이제 인공 지능에도 동일하게 적용됩니다.

WithSecure의 위협 인텔리전스 책임자인 Tim West는 "ChatGPT는 좋은 방식과 나쁜 방식 모두에서 소프트웨어 엔지니어링을 지원할 것이며 이는 악성 소프트웨어 개발자의 진입 장벽을 낮추는 데 도움이 됩니다."라고 덧붙였습니다.

Hintikka에 따르면 ChatGPT가 생성할 수 있는 피싱 이메일은 일반적으로 사람들의 눈에 띄며 LLM이 발전함에 따라 가까운 장래에 이러한 사기에 빠지는 것을 방지하기가 더 어려워질 수 있습니다.

ChatGPT

뿐만 아니라 공격자의 공격 성공률이 놀라운 속도로 증가함에 따라 공격자는 재투자하고 보다 조직화되어 아웃소싱을 통해 작업을 확장하고 인공 지능에 대한 이해를 심화하여 보다 성공적인 공격을 시작합니다.

Hintikka는 사이버 보안의 미래 환경을 살펴보면 "좋은 AI 대 나쁜 AI의 게임이 될 것"이라고 결론지었습니다.

또한 읽기:

가입하기
에 대해 알림
손님

0 코멘트
임베디드 리뷰
모든 댓글 보기