Vol. 35, No. 4, pp. 907-925,
8월.
2025
10.13089/JKIISC.2025.35.4.907,
Full Text:
Keywords:
Generative AI,
harmful content,
classification system,
AI safety,
Korean Regulation
Abstract
생성형 인공지능(Generative AI), 특히 대규모 언어 모델(LLM)의 확산은 이용자의 의도적 행위로 인해 AI가 불법적·비윤리적 콘텐츠를 생성하는 문제를 야기할 수 있다. 기존 AI 안전성 연구는 주로 모델의 기술적 한계에 집중되었으며, 이용자가 유발하는 유해성 문제에 대한 체계적 대응은 상대적으로 부족했다. 본 연구에서는 ‘이용자유발 유해성(User-Induced Harm)’ 문제를 분석의 핵심 틀로 삼아, 한국의 법률 체계(14개 법률), 주요AI 기업정책(7개 기업), 사회문화적 특수성을 종합적으로 분석하여 ‘한국형 생성형 AI 유해 콘텐츠 분류체계’를 설계한다. 제안된 분류체계는 8개 대분류와 23개 세부 유형으로 구성되며, 각 유형에 대해 법적 근거, 기업 정책 반영 여부, 한국적 민감성과 가치 기준을 통합적으로 제시한다. 본 연구는 한국 사회에 적합한 AI 콘텐츠 안전 기준 마련에 기여하고, 이용자 행위 중심의 AI 위험 관리를 위한 구체적인 기준틀을 제시한다.
Statistics
Show / Hide Statistics
Statistics (Cumulative Counts from December 1st, 2017)
Multiple requests among the same browser session are counted as one view.
If you mouse over a chart, the values of data points will be shown.
Cite this article
[IEEE Style]
이재식, "생성형 AI 유해 콘텐츠의 한국형 분류체계 개발: 법률, 정책, 사회문화적 측면에서," Journal of The Korea Institute of Information Security and Cryptology, vol. 35, no. 4, pp. 907-925, 2025. DOI: 10.13089/JKIISC.2025.35.4.907.
[ACM Style]
이재식. 2025. 생성형 AI 유해 콘텐츠의 한국형 분류체계 개발: 법률, 정책, 사회문화적 측면에서. Journal of The Korea Institute of Information Security and Cryptology, 35, 4, (2025), 907-925. DOI: 10.13089/JKIISC.2025.35.4.907.