본문 바로가기

사회 지식

인공지능의 위험성에 관하여!

인공지능의 위험성에 관하여!

인공지능 로봇

인공지능이 계속적인 발전으로 미래 생활의 많은 측면에서, 그 범위가 확장해 오면서, 기술과 관련된 위험성에 대한 주의가 필요하게 되었다.
그러므로 인공지능의 지속적인 부상으로 불가피하게 나타날 위험성에 대해 더욱 포괄적이고 응집력이 있는 대응은 정부와 민간 부분의 효과적인 조율과 전문성이 있는 규제체제의 마련이 필요하다고 본다.
그러나 현실적으로 사람들은 인공지능에서 얻게 되는 혜택이 위험성을 능가한다고 굳게 믿는다는 데서 문제가 있다는 것이다.
이러한 문제가 있음에도 불구하고 인간들은 수십 년 동안 일상생활에서 인공지능이 없어서는 안 될 새로운 기술시대라는 것을 생각한다는 것이다.
이런 상황에서 인공지능은 미래시대의 사회구조를 분열시킬 정도로 위협적이고 선동적으로 이익을 노리는 사람들에게 불법적인 기회를 존재하도록 한다는 것이다.
예를 들면, 범죄자들에게 금융이나 보험사기, 주식시장 조작까지 모든 분야에 기술을 악의적으로 사용하여 문제를 야기시킨다는 것이다.
또한, 인공지능이 더 많이 사용되고 사물 인터넷을 통하여 기기와 기계, 인프라가 연결될수록 보안문제가 더 중요시 되고 사이버 공격은 더 자주 일어난다는 것이다.
이외에도 자율 주행트럭이 식품이나 의약품 등 긴급물자를 배송한다고 하면, 이런 차량을 멈춰 세우거나 배송을 오래 지연시키는 공격은 인간의 생명을 위협하는 결과를 초래하게 된다.
이런 것은 인공지능이 가용성과 의존도가 시스템의 보안위협과 결부된 것으로서, 사회질서와 경제, 제도와 함께 인프라와 시스템에 대한 보안위험이 될 수 있다.
특히, 드론을 잠재적으로 무기로 사용될 경우에는 군사무기로 사용하다면 상상할 수 없는 공격으로 대학살을 일어 킬 수 있다는 것이다.
이런 상황을 방지하기 위해서는 인공지능 시스템 개발에 중점을 둔 연구에 투자하고, 취약점의 문제가 발견되기 전에 적절한 규제와 보호 장치 마련을 정부와 민간부문 간의 효과적인 연합구성을 할 필요성이 있으며, 이 또한 중요시된다.
결론적으로 인공지능은 궁극적으로 인간의 단독 판단보다 적은 편향과 큰 정확도를 안정적으로 생성하는 기술을 보장하여야 한다.
이러한 모든 문제를 해결하기 위해서는 인공지능 알고리즘을 구축, 테스트, 배포하는 개발자들이 다양한 배경을 가지는 것이 매우 중요시된다.
결국, 인공지능의 위험성은 초인적 지능을 가진 로봇이 인간의 통제를 벗어나 인류의 존재를 위협하는 행동을 할 가능성이 존재한다는 것이다.
이러한 인공지능의 존재의 위험성에서 벗어나기 위한 해결책은 고급 인공지능에 명시적인 목적함수를 전혀 만들지 않고 인간을 선호하는 실현을 극대화하도록 설계를 하여야 인공지능의 위험성을 사전에 방지할 수 있다는 것이다.