强化刻板印象 专家警告:AI生成影像助长「贫困色情」

2025-10-21 09:32来源:未知
全球公卫专家警告,人工智慧生成的极端贫困、儿童与性暴力幸存者影像,标志著所谓「贫困色情」现象进入AI时代的新阶段。(取自Freepik)

全球公卫专家警告,人工智慧生成的极端贫困、儿童与性暴力幸存者影像,标志著所谓「贫困色情」现象进入AI时代的新阶段。(取自Freepik)

人工智慧(AI)生成的极端贫困、儿童与性暴力幸存者影像,正大量涌入素材网站,并愈来愈多地被主要的国际卫生非政府组织(NGO)采用。全球公共卫生专家警告,这标志著所谓「贫困色情」(poverty porn)现象进入AI时代的新阶段。

英国「卫报」20日独家报导,安特卫普热带医学研究所研究员阿列尼切夫(Arsenii Alenichev)指出,这些影像复制了贫困的视觉语法─手中拿著空盘子的孩子、龟裂的土地、刻板的画面等。

阿列尼切夫已收集超过100张被个人或NGO用于反饥饿或反性暴力社群媒体运动的AI生成贫困影像。他与卫报分享的画面显示加深刻板印象的浮夸情境。例如,几个孩子无助地挤在泥水中,1名穿著婚纱但脸上挂著泪痕的非洲女孩等。他在16日发表于「刺胳针全球卫生」(The Lancet Global Health)的评论文章中指出,这些影像构成「贫困色情2.0」。

虽然目前难以精确估算AI生成影像的普及程度,但阿列尼切夫等人均表示,使用率正不断上升,主要基于对「同意」与成本的考量。阿列尼切夫指出,愈来愈多组织显然都开始考虑以合成影像取代真实摄影,因为它便宜,而且不必处理当事人是否同意等问题。

如今,搜寻「贫困」(poverty)等关键字时,Adobe Stock Photos和Freepik等流行的素材网站上,就会出现大量AI生成的贫困影像。许多标题包括「真实感十足的难民营儿童」、「亚洲儿童在充满废弃物的河里游泳」、「白人志工在非洲村落为黑人儿童提供医疗咨询」。

阿列尼切夫认为,这些影像带有强烈的种族化色彩,根本不应该被允许发布,因为那是对非洲、印度等地最糟糕的刻板印象。

Freepik执行长阿贝拉(Joaquín Abela)则表示,使用这些极端影像的责任在于使用者,而非平台本身。这些AI素材照片是由平台的全球用户社群产生的,当客户购买其影像时,用户可获得授权费。

阿贝拉说,Freepik已尝试透过「注入多样性」等方式,修正其资料库中其他部分的偏见,确保如律师或执行长等职业照片中有性别平衡。然而,他也坦言平台能做的有限:「这就像要把海洋晒干。我们在努力,但如果全球用户都要特定类型的影像,谁也无法改变。」

过去,主要慈善组织已在全球卫生宣传中使用AI生成影像。2023年,英国慈善机构「国际培幼会」(Plan International)荷兰分部发布1支反童婚影片,出现被生成的黑眼圈女孩、年长男子与怀孕少女的画面。

同年,联合国也在YouTube上传1支以AI生成方式「重现」战争性暴力的影片,内容包括1名蒲隆地女子描述自己在1993年内战中,惨遭3名男子轮暴后弃置等场景。该影片在卫报要求回应后被下架。

NGO传播顾问卡多尔(Kate Kardol)说,这些影像令她感到恐惧,也让她想起早年关于「贫困色情」的争论,「令人悲伤的是,如今为了更具伦理地呈现贫困者的努力,竟延伸到虚构的世界。」

生成式AI工具向来被批评会再现甚至放大社会偏见。阿列尼切夫警告,这些偏见影像在全球卫生沟通领域的扩散,可能加剧问题的严重性,因为它们会流入网路,被用于训练下一代AI模型,而此一过程已被证明会强化偏见。

来源:自由时报

最新内容




《TNT新闻网》带您走进信息爆炸的时代!投稿邮箱:[email protected] 广告投放:[email protected]

Copyright © 2012-2025 TNT新闻网 版权所有

技术支持:TNT新闻网