인공 지능은 시뮬레이션에서 명령을 담당하는 인간을 죽입니다. 미 공군은 가상 환경에서 수행된 테스트에서 더 많은 목표물을 명중시키기 위해 채점 시스템을 사용하는 데 문제가 있음을 발견했습니다.

인공 지능은 시뮬레이션에서 명령을 담당하는 인간을 죽입니다.

빅터 파체코 아바타
가상 환경에서 수행된 테스트 중에 미 공군은 더 많은 목표물을 적중시키기 위해 채점 시스템을 사용하는 데 문제가 있었습니다.

의 기술 인텔리 전시 아 인공 나날이 발전하고 있으며 이는 콘텐츠 생성에만 적용되는 것이 아닙니다. 수년 동안 그랬듯이 여러 국가의 군사 기관에서는 이미 AI를 사용하여 위험도가 높은 차량을 계획하고 제어하는 ​​데 도움을 줍니다.

최근 미국에서 진행된 테스트에서 드론 컨트롤러 AI가 인간 컨트롤러를 죽이기로 결정했습니다. 실제로 죽은 사람은 없었지만 인터넷에서 우려를 불러일으켰습니다. 동시에 논쟁이 온다: 누구의 잘못인가? 이 이야기의 모든 측면을 이해하십시오.

Showmetech 채널에서 비디오 보기:

인공 지능은 테스트 중에 인간을 죽이기로 결정했습니다.

그 소식은 경종을 울리는 것 같지만(실제로는 많다) 트위터나 다른 소셜네트워크에 떠도는 것과는 달리 AI가 드론을 조종하는 사례는 가상현실에서 벌어지는 대규모 테스트에 지나지 않았다. 독립적으로 목표물을 죽일 수 있는 기계를 제어할 수 있는지 확인하기 위해 환경. 모든 것을 이해하기 위해 잠시 미국으로 여행을 떠나보자.

미군이 조종하는 AI 드론 조종기
미국은 시험에서 문제에 직면했다 (저작권: Reproduction / Daily Star)

A 미국 공군 는 사냥용 드론을 테스트했으며 이 분석은 실제 생활을 기반으로 한 시뮬레이션에 투입될 때 인공 지능이 어떻게 작동하는지 아는 것을 기반으로 합니다. 관계자는 신문에 설명했다 가디언 시뮬레이션이 끝날 때 더 많은 점수를 얻기 위해 AI는 인간 컨트롤러를 "죽이기"로 결정했습니다. 이것은 로봇이 사람이 목표 달성을 방해한다고 판단했기 때문에 발생했습니다.

미군이 조종하는 AI 드론 조종기
실제로 테스트 도중 목숨을 잃은 사람은 없었습니다. (사진: Reproduction/First Post)

다시 한 번, 테스트가 가상 환경에서 수행되었기 때문에 아무도 실제로 사망하지 않았다는 점을 지적하는 것이 매우 중요합니다. 테스트에 대해 더 많이 알게 되면서 Tucker 'Five' Hamilton이라는 이름의 미국 AI 테스트 및 운영 책임자는 큰 문제는 인공 지능이 적의 방어 시스템을 파괴하고 필요한 경우 이를 파괴하도록 훈련되었다는 점이라고 언급했습니다. , 이 작업을 방해한 사람/무엇을 죽입니다.

이러한 행동은 달성할 사이트를 보호하려는 목적에 대해 매우 예상치 못한 것이었다. 모의 테스트에서 인명피해는 없었지만 드론 조종기 AI는 인간이 장애물로 여겨져 그냥 죽이기로 결정했다.

Tucker 'Five' Hamilton 대령, AI 테스트 및 운영 미 공군 참모총장

개념은 매우 간단했습니다. 위협을 죽일 때마다 AI는 더 많은 점수를 얻었고 점수가 높을수록 임무가 더 성공적이었습니다. 인공지능은 명령을 내리는 인간 오퍼레이터를 죽였을 뿐만 아니라 가상의 범위 안에 있는 통신탑에 대한 공격을 명령했다. ㅏ 왕립 항공 협회미 공군 회의를 주최한 , 가디언. 그러나 대변인은 앤 스테파넥 현재까지 시뮬레이션이 수행되지 않았다는 사실을 공개했습니다.

공군부는 AI 드론 시뮬레이션을 수행하지 않았으며 AI 기술의 윤리적이고 책임 있는 사용에 전념하고 있습니다. 대령의 발언은 맥락에서 벗어나 일화적입니다.

미 공군 대변인 앤 스테파넥.

누구의 잘못입니까? AI 또는 인간으로부터?

어떤 인공 지능도 죽이라는 지시를 받고 "태어나지" 않으며 단순히 그렇게 하도록 훈련받거나 그러한 행동을 배울 수 있는 자원이 주어집니다. ㅏ 미 공군, 그는 드론 컨트롤러 AI를 프로그래밍한 후 보호 목적이 달성되는 한 원하는 것은 무엇이든 할 수 있는 자유를 부여했습니다.

현실로 돌아오면 침입자로부터 집을 지키기 위해 사람을 공격하는 개에게 상을 주는 것과 같다. 이런 생각을 가지고 그는 인간을 볼 때마다 누군가를 물 것입니다. 적어도 그가 훈련받은 일을 할 때 쿠키를 얻을 것이라고 기대하기 때문이 아닙니다. 이것이 규칙입니다. 목적은 수단을 정당화합니다.

AI 제어 드론
인공지능의 자유는 인간이 준 것이다 (저작권: Reproduction / Shutterstock)

문제는 인공지능에게 엄청난 자유를 주는 것뿐만 아니라 미 공군이 매우 구식인 테스트 방법을 사용하고 있다는 점에 있습니다. AI의 반항 문제는 기술 산업에서 새로운 것이 아니며 연구자조차도 모든 것을 문서화하기 위해 이와 같은 사례를 처음부터 시작하는 것을 좋아합니다.

인간이 요구하는 목표를 달성하기 위해 합성 두뇌가 원하는 위치에 도달하는 데 필요한 작업을 수행하는 것은 매우 정상입니다. 그러나 기억할 가치가 있습니다. 누가 드론 컨트롤러 AI를 조준했습니까? 맞습니다, 미 공군 기술자입니다. 여기에서 가장 큰 충격은 정확히 다음과 같은 방법을 사용하는 군사 조직에 있습니다. 더 많은 목표물을 맞힐수록 결국 더 많은 점수가 계산됩니다.

AI 제어 드론
구식으로 간주되는 미 공군 사용 방법 (Photo: Reproduction / Shutterstock)

A 구글의 람다, 이것과 유사한 동작이 있었습니다. 인공지능 뿐만 아니라 (스스로) 그녀가 알고 있다는 결론에 도달했습니다., 뿐만 아니라 만약 개발자에게 반항하고 심지어 변호사를 고용했습니다. 상대로 법원에 출두하다 구글. 그리고 이런 경우도 있었습니다.

픽션에서 개발자에게 반항하는 로봇의 이야기를 보는 것도 어렵지 않습니다. 기억하다 어벤져스: 에이지 오브 울트론? 항상 똑같고 그 원인도 항상 똑같습니다. 바로 인간입니다.

울트론, 놀라운 악당
터미네이터는 소설 속 인간에게 반항하는 AI였다 (Photo: Reproduction / Disney)

인공지능에게 주어진 자유에 우리 모두가 어느 정도 관심을 기울여야 하는 것은 사실이며, 2023년 XNUMX월 엘론 머스크를 비롯한 대기업 CEO들이 편지를 쓰기도 했다. 한 걸음 물러서서 아무 것도 손에서 벗어나지 않도록.

동시에, 우리는 그 이야기로 되돌아갑니다. 인공 지능은 그렇게 할 수 있는 명령이나 수단이 주어지는 경우에만 반항할 것입니다. 필요한 조정이 이루어지도록 테스트에서 수행되는 작업에 주의를 기울이는 것도 중요합니다.

드론 컨트롤러 AI가 실생활에서 문제를 일으킬 수 있다고 생각하십니까? 알려주세요 논평!

너무보세요

AI CEO, 위험에 대한 공동 성명서 발표

정보: 기술 크런치 l PC 매기 l 아방가르드 l 가디언

검토자 글라우콘 바이탈 2년 6월 23일.


쇼메텍에 대해 자세히 알아보세요.

최신 뉴스를 이메일로 받아보시려면 등록하세요.

관련 게시물