최근 높은 수준의 AI 인공지능이 개발되면서 새로운 세상이 열리고 있습니다. 이번 글에서는 인공지능 긍정적 영향 및 인공지능이 발생시킨 직업 감소 등 부정적인 영향에 관해 사례와 함께 알아보고 이러한 인공지능 의사 결정 문제점 관련 해결 방안에 대해 알아보고자 합니다.
1. 인공지능 긍정적 영향 및 사례
1-1. 생산성 및 효율성 증대, 에너지 절감
인공지능은 다양한 산업 분야에서 생산성과 효율성을 대폭 향상시키는 역할을 하고 있습니다. 구글 데이터 센터 냉각전력 감소율 및 독일 지멘스 자사 스마트 공장 불량률 저하 등 인공지능은 제품 결함을 식별하는데 인간보다 더 효율적이고, 생산 공정을 최적화하는 데 사람이 생각하지 못하는 세세한 부분까지 기계적으로 계산할 수 있는 장점이 있습니다.
그 결과 제품 품질 개선과 회사의 생산 비용을 최소화할 수 있게 되었으며, 물류와 공급망 관리 측면에서도 인공지능 AI는 회사 재고 수준을 최적화하여 재고율과 생산 수량의 균형을 자동으로 맞춰주고 있습니다. 또한, 최적의 배송 경로를 효율적으로 계획하여 운송 비용과 기간을 최소화하는 등 산업 전반의 생산성, 효율성, 에너지 효율성을 높이고 환경에 미치는 영향을 줄이는 데 중요한 역할을 하고 있습니다.
1-2. 인간의 삶의 질 개선
인공지능은 산업 뿐 아니라 우리 일상생활 속 삶의 질을 개선하는데도 이바지하고 있습니다. 그 대표적인 예로 인간의 건강과 관련된 의료 분야에서 이미 인공지능 AI 기반의 진단 프로그램과 개인의 건강 관리를 위한 앱 등이 과거 고가의 맞춤형 의료서비스를 대신해 누구나 쉽게 개인에게 맞춤 건강 관리 및 치료 서비스를 제공하고 있고 교육 분야에서도 AI는 학업 성취도에 따라 학생의 눈높이에 맞춘 교육 커리큘럼 서비스를 제공해 학업 효율을 높이고 있습니다.
그 외에도 IOT 사물인터넷 (센서가 달린 가전제품 등의 네트워크 연결 기술) 스마트 홈 기술과 AI 인공지능 기술이 결합하여 사용자의 생활 패턴을 학습해 난방, 냉방 관리 및 전력 관리 등 일상생활의 편리함을 증진시키고 있습니다. 이러한 가정용 인공지능 기술은 일반인뿐 아니라 시각 장애인 및 거동이 불편한 장애인을 위한 보조 기술로써의 역할도 함께 하고 있어 삶의 질 향상과 더불어 사회적 포용성과 평등을 증진 시키고 있습니다.
2. 인공지능 부정적 영향 및 사례
2-1 인공지능 통제 불가능
현재 인공지능(AI) 기술은 일반적으로 인간보다 10억 배 정도 똑똑하고 효율적이다고 알려져 있습니다. 불과 몇십년 만에 이룩한 이러한 급속한 발전은 많은 이들에게 미래에 대한 불안과 궁금증을 불러일으키고 있습니다. 특히, 인간의 능력을 훨씬 뛰어넘는 초지능 AI의 등장 (특이점 초월 : 인공지능이 인간의 모든 부분을 초월하는 현상) 가능성은 중요한 논의 주제 중 하나입니다. 실제로 인공지능 통제 불가능 사례 중 2016년 알파고와 이세돌 9단의 바둑 대결은 바둑은 인간들의 놀이라는 예측을 모두 깨고 이 대결에서 알파고는 수십년간 바둑을 공부한 전문가들도 이해하기 어려운 탁월한 수를 두었습니다. 이후 인간은 더이상 바둑을 같은 인간에게 배우지 않고 바둑 AI 프로그램으로 배우고 있습니다. 또한, 미국에서는 AI가 조종하는 전투기 시뮬레이션에서 인간 파일럿들이 AI에 지속적으로 패배한 사례도 있습니다. 이러한 사례들은 AI가 어느 정도까지 발전할 수 있으며, 미래에 인공지능이 인간을 지배 할 수 있다는 공포감이 현실이 되지 않도록 인류가 이를 어떻게 통제할 수 있을지에 대한 심도 있는 고민이 필요하다는 것을 의미합니다.
2-2. 직업 상실
인공지능의 가장 큰 부정적 영향 중 하나는 일부 직업의 상실입니다. 자동화와 AI 시스템의 도입은 벌써 단순 반복적이고 예측 가능한 작업을 수행하는 직업에서 인간의 역할을 줄이고 인공지능 직업 감소 전망은 계속 되고 있습니다. 특히 이러한 인공지능 직업 대체 현상은 COVID-19 코로나 팬데믹 기간 동안 손실된 일자리의 약 42%가 AI로 인해 영구적으로 사라진 부분이 이러한 우려가 현실화 되고 있는 것을 보여주는 사례입니다. 인공지능 AI 기술은 도입 비용이 다소 비싸지만, 장기적으로 보았을 때는 인간 직원보다 훨씬 저렴한 비용을 지불하면서 효율적이기 때문에 앞으로도 AI와 로봇 기술의 적용은 일자리 감소로 이어질 수 있습니다. 이러한 변화는 특히 저숙련 노동자들에게 직접적인 영향을 미칠 것이며 장기적으로는 경제적 불평등과 사회적 불안정을 증가시킬 수 있습니다.
2-3. 딥페이크 기술의 남용
최근 가장 이슈화 되고 있는 딥페이크 뜻은 인공지능을 활용하여 실제와 구분하기 어려운 가짜 이미지나 비디오를 생성하는 기술을 말합니다. 이 딥페이크 기술은 연예인, 정치인 등 공공 인물의 얼굴이나 목소리를 모방하여 가짜 뉴스, 조작된 콘텐츠를 만들어 유튜브 등에 퍼트려 정치적, 사회적 혼란을 일으킬 수 있습니다. 이는 개인의 명예를 훼손하고, 사회적 신뢰를 약화하는 것은 물론이며 심지어 정치적 혼란 의도적으로 초래할 수 있다는 심각성을 가지고 있어 최근 딥페이크 기술 처벌을 비롯해 윤리적 사용과 관리가 중요한 사회적 이슈로 부상하고 있습니다.
2-4. 인간과 인공지능 간의 관계 변화
인공지능의 발전은 인간과 기계 간의 관계를 근본적으로 변화시키고 있습니다. 예를 들어, 인공지능 시스템이 의사 결정 과정에 더 깊이 관여하게 되면서, 이러한 시스템의 결정에 대한 인간의 통제력이 점차 줄어들고 있습니다. 가까운 예로 인공지능 자율주행 자동차만 보았을 때 최근 테슬라에서 출시한 자율주행 시스템에 대한 의존도가 높아지면서 인간이 100% 의사 결정을 하며 운전하던 시절과 다르게 인공지능이 알아서 판단해 기계를 조작하기 때문에 의도치 않은 사고가 발생할 수도 있으며 의료 부분 및 법률 분야에서도 진단 과정 및 조사 보조 과정을 넘어 AI 인공지능이 의사 결정 하는 단계에 이르면 기술에 대한 의존도가 커지면서 새로운 윤리적, 사회적 문제에 직면하게 됩니다.
AI 인공지능의 발전은 앞으로 긍정적인 부분을 고려했을 때 이제는 필수 불가피한 중요 요소가 되었지만, 인공지능과의 상호작용이 인간 간의 관계에 미치는 영향, 개인 정보 보호 문제 등 중요한 고려 사항이 반드시 고려되어야 할 것입니다.
3. 인공지능 관련 문제 해결 방안
3-1. AI 윤리 관련 법제화 및 기준 수립
- 인공지능 관련 윤리적 문제 지침 개발 : 딥페이크 영상을 포함한 인공지능의 윤리적 사용을 보장하기 위한 지침 개발이 필요합니다. 이 윤리적 지침에는 인공지능 AI 기술을 특정 국가 또는 기업이 독점하지 않고 누구나 평등하게 차별 없이 사용할 수 있는 권한이 보장되어야 하며, 투명성, 사용자의 프라이버시 보호 등을 포함해야 합니다. 실제로 2018년 유럽연합(EU)은 인공지능 시스템이 신뢰할 수 있기 위해 충족해야 하는 일곱 가지 주요 요구사항 (인간의 행동 주체성 및 감독, 기술적 견고성 및 안전성, 프라이버시 및 데이터 관리, 투명성, 다양성과 차별 금지 및 공정성, 사회적 및 환경적 복지, 책임성)을 포함한 지침을 발표하였습니다.
- AI 관련 법안, 법령 및 정책 개발 : 인공지능 기술과 관련된 법적 규제를 개발하고 이를 시행하는 것은 인공지능 기술이 발전함에 따라 인공지능 기술의 오남용을 방지하고, 사용자를 보호하기 위해 반드시 이루어져야 하는 선행 단계입니다. 이는 인공지능 AI가 수집한 데이터를 보호하고 AI의 안전성과 신뢰성, 책임 소재를 명확히 규정하기 때문입니다. 일례로 테슬라가 자율주행 자동차를 처음 시장에 소개했을 때 한국을 비롯한 일부 국가에서는 자율주행 차량에 관한 법률이 준비되지 못하여 아직 테슬라가 제공한 완전 자율주행 단계 및 레벨을 이용하지 못하고 있습니다. 추후 자율주행 모드의 사용 규칙과 사고 시 책임 소재가 명확히 법률에 구체화하여야 소비자 피해를 최소화할 수 있기 때문입니다.
3-2. 기술적 해결 방안의 개발
- 투명성과 설명 가능성 강화 : 인공지능 AI 시스템이 내리는 의사 결정은 제 3자의 의도가 포함돼서는 안 됩니다. 따라서 의사 결정 과정 및 트리가 투명하게 공개되어야 하고, 그 결과를 사용자가 명확히 이해할 수 있도록 해야만 인공지능이 누군가의 이익이나 이권에 좌지우지되지 않는 인공지능 의사결정 객관성에 대해 완전히 신뢰할 수 있습니다.
- 안전한 AI 설계 : 챗GPT를 사용해 보신 분들이라면 알겠지만 틀린 내용을 매우 그럴듯하게 대답하는 경험을 해보셨을 것입니다. 이렇듯 현재 인공지능 AI 시스템은 높은 신뢰도를 보여주고 있지만, 아직도 많은 실수와 오류가 발생하고 있습니다. 이러한 실수와 오류는 딥러닝 시스템을 통해 점점 줄어들겠지만, 사람의 생명이나 중대한 사항에 적용되어야 하는 경우 예상치 못한 상황에서도 안전하게 작동할 수 있다는 신뢰성을 주기 위해서는 설계 단계부터 지속적인 모니터링과 충분한 안전 테스트 및 위험 평가가 필요합니다. 아직은 이러한 안전 평가 기준조차 마련되지 않았기 때문에 앞서 말한 법적 규제와 정책 개발이 필요한 이유입니다.
3-3. 사회적 대화와 협력의 증진
- 다양한 이해관계자 참여 : AI가 인간을 대체하고 사회 전반에 인공지능의 의사 결정이 중요한 요소로 자리 잡게 되면 인간을 지배할 수 있다는 위험성과 경각심을 이야기하는 시민단체도 있습니다. 추후 인공지능 개발과 사용에 관련한 적합한 정책과 법적 규제를 만드는 데 있어 이러한 다양한 관점의 통합은 사회적, 윤리적, 법적 측면에 대한 균형 잡힌 이해와 공감대 형성을 통해 더욱 포괄적이고 실현 가능한 정책과 규제를 만드는 데 이바지합니다. 따라서 AI 정책 결정 과정에는 연구자, 정책 입안자(정치인), 기업, 시민단체 등 다양한 이해관계자가 포함되어야 합니다.
- 국제적 협력 강화 : 인공지능 AI 기술은 한 국가에서 독점되어서는 안 됩니다. 따라서 전 세계 모든 국가가 인공지능 AI 기술의 안전한 사용, 윤리적 기준 확립 그리고 글로벌 차원에서의 기술 격차 해소를 위한 국제적 협력이 필수적입니다. 이처럼 각국은 국제적 협력을 통해 AI 관련 표준과 규제를 마련해야 하며, 이는 국제기구의 역할 강화와 국제 협약 개발, 공동 연구 및 표준 설정 등을 통해 이루어질 수 있습니다.