대규모 언어모델의 인간 사회 편향 학습과 재생산 : 챗GPT와 딥시크는 ‘중립적 도구’인가, ‘편향적 행위자’인가
한국언론학보 | 한국언론학회 | 26 pages| 2025.12.22| 파일형태 :
조회 51 다운로드 0
자료요약
본 연구는 대규모 언어모델(large language model [LLM])이 인간 사회의 편향을 어떻게 학습하고 재생산하는지를 실증적으로 분석하였다. 서구권 대표 모델인 챗GPT와 동양권 모델 딥시크를 대상으로 명시적(explicit) 및 암묵적(implicit) 편향의 발현 양상을 비교하였다. 인종 관련 문장을 활용한 명시적 편향측정에서 딥시크는 전반적으로 더 엄격한 기준을 적용했으며, 챗GPT는 중립적이지만 응답 일관성이 낮았다. 또한 암묵적 연상 검사(implicit association test [IAT]) 결과, 챗GPT는 서구 개념을, 딥시크는 동양 개념을 긍정적 속성과 더 자주 연결하며 무의식적 편향을 드러냈다. 이는 LLM이 표면적으로는 중립성을 보이더라도 특정 가치체계를 강화할 수 있음을 보여주는 ‘편향의 이중성’을 시사한다. 결과적으로 LLM은 단순한 정보 생성 도구가 아니라, 학습 데이터와 설계 철학에 따라 세계관을 재현하는 사회문화적 행위자임을 확인하였다. 본 연구는 AI 윤리와 설계 과정에서 편향 인식과 조정의 필요성을 강조하며, 기술적·정책적 논의를 위한 기초 자료를 제공한다.
목차
1. 서론
2. 이론적 논의
3. 연구문제 및 연구방법
4. 연구결과
5. 결론 및 논의
#implicit bias#explicit bias#large language model#ChatGPT#DeepSeek#암묵적 편향#명시적 편향#대규모 언어모델#챗GPT#딥시크
저작권 안내 및 사용범위와 규정
  • 위 정보 및 게시물 내용의 불법적 이용, 무단 전재, 배포는 법적으로 "금지되어" 있습니다.
  • 저작권 침해, 명예훼손 등 분쟁요소 발견시 하단의 “고객센터”를 이용해주세요.
  • 기타는 저작물의 등록자가 정하는 사용 범위와 규정에 준합니다.
  • 위 자료는 가 저작권을 관리하고 있습니다.
자료 제공처