(국제인권법 3학년) 인공지능기술의 발전이 인권침해를 발생시키는 국내외 사례들을 알아보고, 인공지능과 민주주의의 관계에 대해 관련 논문 등을 참고하여 간략하게 정리하고, 인공지능의 이러한 위험성과 한계를 통제하기 위해 제시되고, 또 시행되고 있는 국내적, 국제적 제도, 원칙, 정책 및 법률 등을 정리하면서, 본인의 생각을 밝히시오.
본 자료는 6페이지 의 미리보기를 제공합니다. 이미지를 클릭하여 주세요.
닫기
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
해당 자료는 6페이지 까지만 미리보기를 제공합니다.
6페이지 이후부터 다운로드 후 확인할 수 있습니다.

소개글

(국제인권법 3학년) 인공지능기술의 발전이 인권침해를 발생시키는 국내외 사례들을 알아보고, 인공지능과 민주주의의 관계에 대해 관련 논문 등을 참고하여 간략하게 정리하고, 인공지능의 이러한 위험성과 한계를 통제하기 위해 제시되고, 또 시행되고 있는 국내적, 국제적 제도, 원칙, 정책 및 법률 등을 정리하면서, 본인의 생각을 밝히시오.에 대한 보고서 자료입니다.

목차

Ⅰ. 서론

Ⅱ. 본론

1. 인공지능 알고리즘의 본질

2. 인공지능기술의 발전이 인권침해를 발생시키는 국내외 사례들
1) 사례1
2) 사례2
3) 사례3
4) 사례4
5) 사례5
6) 사례6

3. 인공지능과 민주주의의 관계
1) 새로운 위험적 요소
2) 민주주의 기본질서
3) 민주적 의사결정
4) 대의민주주의의 위협

4. 인공지능의 위험성과 한계를 통제하기 위한 제도, 정책 및 법률
1) 국내적 제도, 원칙, 정책 및 법률
(1) 데이터 처리와 디지털 환경 규제 - 데이터 3법
(2) 데이터 이용 촉진에 관한 법률
(3) 지능정보화 기본법
(4) 인공지능 위험관리 규제
가. 자율주행자동차 관련 규제
나. 지능형 로봇 관련 규제

2) 국제적 제도, 원칙, 정책 및 법률
(1) AI와 알고리즘 사용 지침
(2) 인공지능 위험 규제
(3) 아실로마 AI 원칙
(4) AI 윤리 기본원칙
(5) 인공지능백서
(6) GDPR(General Data Protection Regulation)
(7) 디지털 권리 기본헌장

5. 나의 의견

Ⅲ. 결론

참고문헌

본문내용

인공지능 시대에서의 현행법률상의 불법행위책임 체계는 다음과 같은 문제점이 있다. 첫째, 현행 우리 민법 제750조에는 불법행위의 일반적 성립요건으로 고의나 과실, 위법성과 책임능력, 손해 발생 및 인과관계의 존재 등을 요구한다. 따라서 이러한 전통적인 과실책임주의가 인공지능과 이를 기반으로 한 시스템 및 로봇과 같은 제품의 불법행위책임에도 그대로 유효할 수 있는지, 아니면 새로운 위험책임주의나 보상책임주의의 적용을 통하여 손해에 대한 공평한 분담책임을 실현할 것인지에 대한 논의의 진행이 전제되어야만 인공지능이 위험에 대응한 책임체계의 구축이 가능하다.
둘째, 민사법상의 불법행위에 있어 입증책임의 일반원칙은 원고에게 있으므로 당해 요건사실을 입증하고 피해를 보전받기 위해서는 원고인 피해자가 기술의 불완전 또는 오류와 그 손해에 대한 입증책임을 지는 것이 원칙이다. 그러나 인공지능은 여러 이해관계자의 참여와 기술 구성요소의 상호의존성으로 인해 기술상의 복잡성을 전제할 수밖에 없다. 하드웨어 및 디지털 콘텐츠와 같은 디지털 제품의 다양한 부분은 별도로 판매되고 여러 당사자가 생산할 수 있기 때문에 인공지능 시스템의 고장의 원인을 추적하거나 고장에 대한 책임을 단일 제조업체에 전가하는 것 또한 어려울 수 있다. 따라서 인공지능 시스템이 탑재된 제품이나 서비스를 이용하는 소비자의 경우 하드웨어 제조업체, 소프트웨어 설계자, 소프트웨어 개발자, 시설 소유자를 비롯한 다양한 이해관계자를 상대하여야 하는 부담을 안게 된다. 즉 인공지능 시스템 소비자는 인공지능의 행위와 결과에 따라 자신이 입게 된 손해와 시스템의 하자를 증명하는 데 어려움을 겪을 가능성이 높다.
공동체 내에서의 인공지능의 활용은 관점에 따라 최선의 선택 또는 생명과 신체 등을 포함한 기본권의 가장 큰 위험요소가 될 수도 있다. 의료와 법률, 일상의 편의 시설 등의 모든 영역에서 인공지능이 인간의 생사를 결정하는 지위에 있게 된다는 것은 곧 책임의 문제를 발생시킨다는 것을 의미하기 때문이다. 그리고 이는 공동체 내에서의 인공지능의 발전에 비례한 규범적 책임체계가 완비되어 있어야 함을 의미한다. 따라서 이와 같은 논의에 맞춰 현재「지능정보화기본법」, 「지능형 로봇 개발 및 보급 촉진법」, 「자율주행자동차 상용화 촉진 및 지원에 관한 법률」등은 인공지능의 법적 책임에 대한 규제체계라기보다 미래의 기술발전을 예상한 인간의 행위 등을 규율한다.
그럼에도 불구하고 아직까지 향후의 인공지능 기술의 발전에 대응한 위험 책임체계는 지극히 제한적이다. 따라서 지금까지의 법률관계의 형성과 이에 따른 책임소재에 대한 다른 문제가 발생할 가능성에 대응한 미래지향적이고 사전예방적인 입법체계를 준비해야만 한다. 이런 차원에서 최근의 EU 지침 개정(안)은 우리나라에 제조물책임법에도 많은 시사점을 제공한다. 해당 지침 개정(안)이 디지털 및 순환경제 제품에서 발생할 수 있는 위험에 대해 무과실책임 법리를 반영함으로써 최근 유럽 사회가 ‘그린 및 디지털 전환(The green and digital transition)’의 일환으로 자원효율적(resource-efficient)이고 친환경 제품의 유통은 물론 디지털데이터AI 등 신기술 산업 경쟁력 강화 정책에 대비한 소비자의 안전 등을 고려한 조치를 가속화하고 있는 상황에서 우리도 이와 같은 기술 위험에 대응한 책임 체계 설계를 요구한다.
Ⅲ. 결론
지금까지 본론에서는 인공지능기술의 발전이 인권침해를 발생시키는 국내외 사례들을 알아보고, 인공지능과 민주주의의 관계에 대해 관련 논문 등을 참고하여 간략하게 정리하고, 인공지능의 이러한 위험성과 한계를 통제하기 위해 제시되고, 또 시행되고 있는 국내적, 국제적 제도, 원칙, 정책 및 법률 등을 정리하면서, 본인의 생각을 제시해 보았다. 인공지능 기술은 기존의 과학과 기술·서비스와는 다른 새로운 혁신적인 기술로서, 이로 인해 발생할 위험은 기존의 법질서 안에서 완벽하게 관리될 수 없는 중대한 헌법적 위험 요소를 가지고 있다. 그리고 이러한 헌법적 위험 상황에서 국가는 헌법이 부여한 기본적 헌법 가치 및 기본권을 보호할 의무를 지닌다. 따라서 아무리 기술의 발전과 이에 따른 사회변화가 아무리 유혹적이라 하더라도 인공지능 기술이 발전하는 방향은 이러한 공동체적 중심가치 안에서 발전할 수 있도록 기술의 한계와 목표를 설정해 놓아야만 한다. 이를 위해 인공지능 ‘기본법’의 제정 및 관련 법률의 제·개정과 사회 인프라 확충 및 개선을 통한 규제 실효성의 확보를 주장한다. 그리고 이와 같은 기존 사회의 제도적·규범적 변화 노력은 개인이나 기업, 정부와 국제사회의 모든 구성원의 논의를 거친 합의를 전제로 함으로써 향후 기술의 통일적이고 안전한 개발과 사용을 담보하고, 인공지능 시대에서 기술에 대한 ‘신뢰’를 획득할 수 있어야 할 것이다.
참고문헌
김도윤 (2020). 인공지능기술과 인간의 책임 연구. 제주대학교. 박사학 위논문.
윤수정 (2020). 인공지능사회에서의 기본권. 공법연구.
김승래 (2018). 4 차 산업혁명과 AI 시대의 법적 과제와 전망. 법학연구.
양천수, 인공지능 혁명과 법, 서울:박영사, 2020.
고학수 외 2인,“인공지능과 차별”,「저스티스」제171호, 한국법학원, 2019.
이상욱, 이호영, 인공지능(AI) 윤리와 법(Ⅰ)-AI 윤리의 쟁점과 거버넌스 연구, 세종: 한국법제연구원, 2022.
고학수 외, “인공지능과 차별”, 저스티스 통권 제171호, 서울:한국법학원, 2019.
김광수, “인공지능 규제의 법체계”, 토지공법연구 제93권, 서울:한국토지공법학회 , 2021.
김희정 (2022). 인공지능 윤리와 형사정책적 시사점-형사사법에서의 인 공지능 윤리 이슈를 중심으로. 형사정책.
김종호 (2018). 인공지능 로봇의 출현으로 인한 법적 논란에 관한 영역 별 쟁점의 고찰. 법이론실무연구.
박원규 (2021). 유럽 정보보호법의 최근 동향-GDPR 및 독일의 정보보호법제와 판례를 중심으로. 경찰법연구.
소순주 (2022). 인공지능 윤리원칙 분류 모형 및 윤리 측정지표 개발과 신뢰성에 관한 연구. 성균관대학교. 박사학위 논문.

키워드

  • 가격6,000
  • 페이지수19페이지
  • 등록일2024.03.18
  • 저작시기2024.03
  • 파일형식한글(hwp)
  • 자료번호#1244304
본 자료는 최근 2주간 다운받은 회원이 없습니다.
청소해
다운로드 장바구니