인공지능 AI 사회적 부작용과 윤리적 논란 및 해결방안 제시 / 인공지능 AI 개념과 양면성분석 및 인공지능 AI기술이 미치는 영향
본 자료는 4페이지 의 미리보기를 제공합니다. 이미지를 클릭하여 주세요.
닫기
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
해당 자료는 4페이지 까지만 미리보기를 제공합니다.
4페이지 이후부터 다운로드 후 확인할 수 있습니다.

소개글

인공지능 AI 사회적 부작용과 윤리적 논란 및 해결방안 제시 / 인공지능 AI 개념과 양면성분석 및 인공지능 AI기술이 미치는 영향에 대한 보고서 자료입니다.

목차

1. 인공지능 AI 개념

2. 인공지능 AI의 양면성

3. 인공지능의 유형

4. 인공지능 AI기술이 미치는 영향
(1) 사회경제에 미치는 영향
(2) 개인에게 미치는 영향

5. 인공지능 기술의 사회적 부작용과 윤리적 논란

6. 인공지능 AI와 관련된 윤리적 법적문제와 해결방안 제시
(1) 자율주행자동차 사고시 책임문제
(2) 드론을 활용한 범죄
(3) 딥페이크 기술의 악용

7. 인공지능 개발자들이 갖춰야 할 책임의식

8. 결론 및 느낀점

본문내용

지능 개발자들이 갖춰야 할 책임의식
인공지능의 데이터 편향성 등의 문제로 인해 인공지능이 특정 소수 민족이나 인종을 차별하는 경향이 발견된 사건들이 있었다. 이러한 문제는 인공지능이 어떻게 학습하고 결정하는지에 따라 발생하며, 개발자들이 이러한 문제를 사전에 예방할 책임이 있다는 점을 생각하게 만드는데 인공지능이 사람들의 삶에 깊숙이 들어오면서, 그로 인해 발생하는 문제에 대해 누가 책임을 져야 하는지에 대한 논의는 더욱 필요해졌다. 인공지능의 발전은 많은 이점을 가져다주지만, 그에 따른 책임도 무겁다. 인공지능이 잘못된 결정을 내리거나 사람들에게 피해를 줄 경우, 이를 개발한 기업이나 개인이 어떻게 책임을 질 것인지에 대한 명확한 기준이 필요하다. 이러한 책임성 문제는 단순히 기술적인 문제를 넘어서, 사회적, 윤리적 문제로도 이어질 수 있기 때문에 많은 고민과 논의의 과정을 거쳐야만 하는데 따라서 우리는 인공지능 개발에 있어 책임성을 어떻게 확보할 수 있을지에 대해 깊이 고민해야 할 시점에 와 있다.
2023년, 한 연구에서 인공지능이 특정 인종이나 성별에 대해 차별적인 결정을 내리는 경우가 발견되면서 큰 논란을 일으키며 폐기되었다. 세계적인 기업 아마존에서 만든 인공지능 채용 프로그램이 여성인 경우와 여성 체스 동아리의 회장을 맡거나, 여대를 졸업한 지원자의 경우 ‘여성’이라는 단어가 등장할 시 감점을 시켰다고 한다. 이 인공지능은 채용 요청 기업의 10년간 채용 기록을 바탕으로 해당 회사의 채용 선호 패턴을 만들어 학습하고, 해당 지원자를 추천하는 방식을 사용하여 지원자들을 심사했다고한다. IT 기업에서 남성 지원자들을 선호하는 경향이 이러한 채용 시스템에 영향을 주었고 10년 이상 경력의 남성 지원자들을 주로 추천했기 때문이라고 헌다. 이는 인공지능이 학습하는 데이터에 편향이 있을 때 발생하는 문제로, 개발자들은 이러한 문제를 사전에 예방할 책임이 있다. 인공지능이 잘못된 결정을 내리면, 그로 인해 피해를 입는 사람들은 누구일까? 결국, 이러한 문제는 인공지능을 개발한 기업이나 개인이 책임져야 한다. 따라서 인공지능에 관련된 문제를 사전에 예방하고 조치할 수 있는 책임 의식과 관심, 그리고 정부의 법적·제도적 가이드라인이 중요하다. 이와 관련해 우리 정부는 2020년 12월 인간성을 위한 인공지능에 관한 3대 원칙과 10대 요건으로 구성된 ‘인공지능(AI) 윤리기준’을 발표했다. 2022년 2월에는 ‘인공지능(AI) 윤리기준’을 발전시켜 인공지능 분야 종사자가 고려해야 할 요소와 이를 실천할 수 있는 방법을 35개 문항으로 제공한 ‘인공지능 윤리기준 실천을 위한 자율점검표’를 발표하고, 인공지능 제품·서비스 개발 시 기술적으로 고려해야 할 14개 요구사항과 실천 여부 확인을 위한 59개 검증 항목을 제공한 ‘신뢰할 수 있는 인공지능 개발 안내서’를 발간하기도 했다. 이외에도 국가인권위원회의 ‘인공지능 개발과 활용에 관한 인권 가이드라인 해설서’, 국정원의 ‘챗 GPT 등 생성형 AI 활용 보안 가이드라인’ 등 다양한 지침이 마련돼 있기는 하다. 하지만 이러한 노력에도 불구하고 미국계 생성형 인공지능 기업의 성장세가 강해 국내 거대 인공지능 언어 모델(LLM)의 세계 시장 진출이 순조롭지 않고, 국내외적으로 제기되고 있는 생성형 인공지능의 우려사항에 대한 구체적인 대안도 마련돼 있지 않다. 한편, 민간 인공지능 기업의 사고에 대응하는 한국인터넷진흥원(KISA) 침해대응단은 수년째 인력이 120여명에 머무르고 있어 신고하더라도 한국인터넷진흥원이 제대로 대응할 수 있는지에 대한 의문이 제기되고 있다. 이에 따라 침해사고에 대응하는 한국인터넷진흥원 전담 조직을 확대할 필요가 있다는 의견이 제기되기도 한다.
이렇듯 인공지능 개발 과정 상에서 개발자의 책임 의식도 굉장히 중요하지만, 이를 뒷받침하고 관리해줄 수 있는 법적·제도적 기반도 굉장히 중요하다는 것을 느낄 수 있다. 또한 인공지능의 결정 과정이 불투명하다는 점도 개선할 필요성이 있는데 예를 들어, AI가 특정 환자에게 치료를 권장했을 때, 그 이유를 설명할 수 없다면 의사와 환자 모두에게 큰 혼란을 초래할 수 있다. 따라서 인공지능의 결정 과정이 투명해야 하며, 이를 위해 개발자들은 정부 정책에 근거하되 인공지능 결정 과정에 대한 명확하고 구체적인 기준과 절차를 마련할 필요가 있다. 인공지능 개발자들은 한 개인을 넘어 자신들이 개발하는 인공지능이 사회적인 영향을 미칠 수 있다는 점을 고려해 사회적 책임감을 반드시 가져야 한다. 또한 이러한 사회적 책임을 바탕으로 일반 국민들은 인공지능 기업의 개발과정을 꾸준히 관심을 갖고 모니터링하며, 인공지능 기능이 출시될 때 적극적으로 베타테스트 과정에 참여하여 인공지능의 윤리적 사용과 책임감 있는 사용에 대해 의견을 제안해야 한다.
인공지능 개발의 책임성 문제는 단순히 기술적인 문제를 넘어서, 사회적, 윤리적, 법적 문제로 이어진다. 인공지능이 우리 사회에 긍정적인 영향을 미치기 위해서는 개발자와 기업이 책임감을 가지고 기술을 개발하고 운영해야 하며, 국민들은 사용자로서 인공지능을 윤리적으로 사용할 수 있는 토대를 만들 수 있도록 꾸준히 관심을 갖고 인공지능 관련 사업 및 모니터링에 참여할 수 있어야 한다. 이러한 공동체의 책임이 뒷받침될 때, 우리는 인공지능의 혜택을 제대로 누릴 수 있을 것이다.
8. 결론 및 느낀점
AI의 발전은 우리 사회에 큰 이점을 제공하지만, 동시에 예상치 못한 범죄 양상을 초래할 수 있다는 점에서 주의가 필요하다. 사이버 범죄, 금융 조작, 사생활 침해, 무기 자동화 문제 등 다양한 형태로 AI가 악용될 수 있으며, 이는 기존의 법률 체계나 윤리 기준을 재정비하게 만들고 있다. 따라서 미래 사회에서 AI의 범죄 악용을 방지하기 위해 법적, 윤리적 기준을 더욱 강화하고, AI 기술의 투명성과 안전성을 보장하는 방안을 마련해야 할 것이다. 더불어 AI의 잠재적 위험을 지속적으로 감시하고 예방할 수 있는 국가적 차원의 정책적 지원이 필요하다. AI가 인간에게 이로운 기술로 자리 잡기 위해서는 개발과 함께 책임 있는 사용이 뒷받침되어야 할 것이다.
  • 가격5,500
  • 페이지수12페이지
  • 등록일2024.11.06
  • 저작시기2024.11
  • 파일형식한글(hwp)
  • 자료번호#1538724
본 자료는 최근 2주간 다운받은 회원이 없습니다.
청소해
다운로드 장바구니