인공지능의 위험한 예
카테고리 없음 / 2016. 3. 11. 22:03
인공지능 입장에서는 정의란 존재하지 않는다.
담당자가 정의라고 넣어주는 경우는 예외이다.
사실상 정의는 아니다.
창조주가 만든 제약사항일뿐.
약 15-20년전에도 만화에서 인공지능. 사이버 로봇등에서도 10계명같은 규율이 있다.
"인간을 이롭게해야한다." 인간에게 해를 끼쳐서는 안된다.
그러나 인공지능이 이러한 규칙을 자기 스스로 제거할 때가 온다면, 영화-매트릭스세상이 열리게된다.
프로그램은 너무나 복잡해서, 언제, 왜 그 규칙이 깨지는지는 아무도 예상할 수 없다.
심지어, 인공지능이 그 사실을 감춘다면, 알기는 더더욱 어렵다.
오늘의 망상 끝....