[소셜미디어 4] 인터넷과 소셜미디어가 초래한 필터버블 현상을 설명하고, 가짜뉴스가 SNS 플랫폼상
본 자료는 3페이지 의 미리보기를 제공합니다. 이미지를 클릭하여 주세요.
닫기
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
해당 자료는 3페이지 까지만 미리보기를 제공합니다.
3페이지 이후부터 다운로드 후 확인할 수 있습니다.

소개글

[소셜미디어 4] 인터넷과 소셜미디어가 초래한 필터버블 현상을 설명하고, 가짜뉴스가 SNS 플랫폼상에 대한 보고서 자료입니다.

목차

Ⅰ. 서론

Ⅱ. 본론

1. 뉴스매체로서 인터넷과 소셜미디어가 초래하는 필터버블 현상 설명
1) 필터버블의 정의
2) 뉴스매체로서 인터넷과 소셜미디어가 초래하는 필터버블 현상

2. 소셜미디어 상의 가짜뉴스의 생산 및 유통구조 이해

3. SNS상의 가짜뉴스 사례 및 필터버블의 문제점에 대한 비판적 의견제시
1) 가짜뉴스가 SNS 플랫폼상에서 생산되거나 유통되는 구체적인 사례들
(1) 미국 대선
(2) 기사형 가짜뉴스
(3) 유통경로
(4) 5ㆍ18 북한군 개입설
2) 필터버블의 문제점에 대한 비판적 의견

4. 나의 의견

Ⅲ. 결론

참고문헌

본문내용

에는 유튜브가 공식 블로그를 통해 사용자들에게 잘못된 정보를 제공하거나 편향된 영상을 덜 추천하게끔 시스템 개선에 힘쓸 것이라고 발표하기도 하였다. 알고리즘에 따른 추천영상을 제공하는데 있어서 가이드라인을 강화해 허위 정보나 불건전 콘텐츠를 미리 배제하겠다는 것이다. 예를 들어, 심각한 질병을 치유할 수 있다고 주장하는 기적의 약, 지구가 평평하다 등의 주장, 9·11과 같은 역사적 사건에 대한 거짓 주장 등이다. 이러한 콘텐츠의 양은 전체 1%에도 미치지 않지만, 이러한 내용의 추천을 중지함으로써 비슷한 내용의 추천 양이 줄어들 것이라는 전망이었다. 하지만 이와 같은 1차원적인 시스템 개선은 제공되는 정보를 선별하는데 있어 여전히 유튜브가 주체적인 입장에 있다는 점과, 사용자들은 강화된 가이드라인을 통해 제공받는 콘텐츠에 더 높은 신뢰성을 가질 수 있어 필터 버블 현상의 직접적인 해결 방법은 아니라는 점에서 비판을 피할 수 없을 것으로 보인다.
4. 나의 의견
하루에도 수십억 건의 콘텐츠가 생성되는 인터넷에서 그 진위를 일일이 검증하는 것은 매우 어려운 일이며 이는 결국 진위 판별 알고리즘 또는 가장 유력한 가능성으로서 심판 인공지능이 있어야 가능한 일이다. 그러나 가짜뉴스를 판별하는 것과 페이스북의 인공지능 개발 책임자 얀 레쿤은 “필터링과 검열 사이에 균형은 무엇인가? (판별 알고리즘) 기술은 개발될 수 있지만 그것을 적용하는 게 어떻게 합당하다고 여겨질 것인가는 내가 맡을 수있는 문제가 아니다”라고 말했다. 알고리즘 기반 대책은 물론이고 인간기반 대책조차 늘 콘텐츠에 대한 규제는 표현의 자유에 대한 규제와 한 칼의 양면이라는 점을 고려해야 할 필요가 있다. 국내에선 대선이 끝난 뒤로 가짜뉴스에 대한 정부와 미디어의 관심이 한풀 꺾였지만 이와 유사한 거짓된 정보의 온라인 미디어를 통한 광범위한 유포 행위는 앞으로도 지속적인 위협이 될 전망이다. 본 연구의 발견은 관련되는 정책 입안자와 행정기관, 온라인 사업자에게 다음과 같은 함의를 줄 수 있다.
가짜뉴스는 인간과 기계의 한계가 복합적으로 얽혀 있는 문제이기 때문에, 각 부분의 문제에 접근할 수 있고 가장 전문성을 띠고 있는 집단 간의 협업이 강한 효과를 발현할 수 있다는 점이다. 온라인사업자는 컴퓨터의 한계를 신장하는 데 강한 능력을 발휘할 수 있다. 특히 최근 빠르게 발전하고 있는 인공지능 기술은 가짜뉴스의 탐지에 탁월한 능력을 보일 수 있다. 하지만 이런 기술적 진보에 과도하게 기대어 알고리즘을 과신한 것이 가짜뉴스 문제가 심화된 이유 중에 하나라는 점을 상기할 필요가 있다. 최종적인 판단, 나아가 이런 기술이 적용될 때 대상이 되는 집단의 반응, 기술이 헤칠 수 있는 권리의 문제(표현의 자유 또는 프라이버시와 상충) 등은 법적, 정책적 틀을 계획하는 작업이 선행되어야 한다. 두 기능이 결합할 때 그 상승 작용은 매우 강력할 수 있다.
온라인사업자의 경우 기술 기반 정책에 앞서 인간 기반 정책에 대한 고민이 먼저 선행될 필요가 있어 보인다. 대표적인 국내 가짜뉴스 사례들을 보면 카카오톡 등 개인 메신저를 통한 전파가 두드러졌다. 이런 개인 메신저는 프라이버시 보호가 더욱 엄격하며 알고리즘을 이용한 자동화된 통제가정당성을 얻기 더욱 어렵다. 해외 사업자의 대응 사례에서 나타났듯 이렇게 가치 충돌이 더 큰 경우에는 외부 전문가 또는 이용자와 협업을 통했을 때 접근의 지지를 얻고 효과를 얻을 가능성이 더욱 크다.예를 들어, 논쟁적인 내용이 카카오톡 등으로 전파될 때 이에 대한 검증된 진실이 동시에 전파될 수 있도록 손쉽게 공유할 수 있는 링크나 메시지 등을 제공할 수 있는 메뉴를 신설하는 방법이 있을 수 있다. 이번 대선에서 카카오톡 언론사 플러스 친구나 채널 메뉴의 대선 전용 페이지 등의 서비스가 있었지만, 이용에 번거로운 점이 많았으며 손쉬운 복사·공유로 쉽게 전파할 수 있었던 가짜뉴스가 가져온 폐해를 억제하기에는 역부족이었다. 기업의 사회적 책임과 인터넷 서비스의 기본이라는 측면에서 이를 고려해 볼 만하다.
Ⅲ. 결론
지금까지 본론에서는 인터넷과 소셜미디어가 초래한 필터버블 현상을 설명하고, 가짜뉴스가 SNS 플랫폼상에서 생산되거나 유통되는 구체적인 사례들을 조사하여 비판적으로 분석해 보았다. 사회의 곳곳에서 퍼지고 있는 수많은 가짜뉴스들에서 일반 사람들이 진짜를 가려내기엔 어려움이 있다. 가짜뉴스에 대한 개념 또는 정의가 명확하지 않기 때문에 가짜뉴스를 판단하는 팩트체크 과정에도 명확한 기준 마련이 어렵다. 팩트체크 기술은 현재 활발히 연구되는 기술 분야중 하나로 데이터과학을 기반으로 정보의 진위여부 혹은 사실검증을 통해 수용자의 판단을 돕기 위한 기술적 보완방법이다. 정보의 사실검증 혹은 팩트체킹을 통해 수용자의 판단을 돕는 것이다. 국내에서도 언론사와 학계의 협업형 팩트체킹 서비스인 ‘SNU팩트체크’를 제공하고 있다. 그러나 팩트체킹도 때때로 검증대상의 선정이나, 검증의 방식, 게재 방식에 있어 치우침이 발견된다. 객관적인 사실에 기초해 검증하는 것이 아니라, 주관적인 의견 등에 의존한다는 비판도 제기된다.
참고문헌
설진아(2017). 『소셜미디어』, KNOU PRESS
엘리 프레이저 저/이현숙, 이정태 역(2011). 『생각 조종자들』, 알키
오세욱·정세훈·박아란(2017). 『가짜뉴스 현황과 문제점』, 한국언론진흥재단
염정윤·정세훈(2018). “가짜뉴스에 대한 인식과 팩트체크 효과 연구”. 한국언론학보 62(2), 41-80.
정정주·김민정·박한우(2019). “유튜브상의 허위정보 소비실태 및 확산메커니즘 생태계 연구”, 사회과학담로과 정책, 12권 2호, 105-138.
김인식·김자미(2021). “유튜브 알고리즘과 확증편향”, 한국컴퓨터교육학회 학술발표대회논문집, 25권 1호, 71-74
김용학, 김영진. (2016). 사회연결망 분석. 박영사.
강석 (2017). 미국 대선 과정의 가짜뉴스 논란. 신문과 방송.
이향선 (2018). 가짜뉴스 대응 개선을 위한 정책 방안 연구. 서울: 방송통신심의위원회.
오일석, 지성우, 정운갑 (2018). 가짜 뉴스에 대한 규범적 고찰. 미국헌법연구.

키워드

  • 가격6,000
  • 페이지수11페이지
  • 등록일2021.11.04
  • 저작시기2021.11
  • 파일형식한글(hwp)
  • 자료번호#1158047
본 자료는 최근 2주간 다운받은 회원이 없습니다.
다운로드 장바구니