-
摘要: 人工智能的发展给智能生活带来便利的同时,用户可能会因算法自动处理的个人数据而受到不公平地对待,由此产生了数字歧视这一新型不平等现象。数字歧视是算法通过继承先前决策者的偏见或复制现实世界中的歧视实例进行计算,可能导致之前处于弱势的群体受到更不公正的待遇,从而加剧现有的不平等。本文以红色药丸论坛为例,运用语言偏见可视化工具 DADD 分析其性别不平等程度,并就数字歧视这一问题提出思考。
-
[1] 联合国教科文组织 .I’d blush if I could:closing gender divides in digital skills through education[EB/OL].[online]Available at: ,2019. [2] 汪怀君 . 人工智能消费场景中的女性性别歧视 [J]. 自然辩证法通讯 ,2020(5):45-51. [3] Brian,A.The Nature of Technology:What It Is and How It Evolves[M].2011.Free Press. [4] Pierce D,Misogynistic Men Online: How the Red Pill Helped Elect Trump Journal of Women in Culture and Society.vol.44,no.3.2019. [5] Ferrer,X.and Van Nuenen,T.,n.d.Language Bias Visualiser-DADD.[EB/OL].https://xfold.github.io/WEGenderBiasVisualisationWeb/. [6] Amelita T.https://www.newstatesman.com/science tech/internet/2017/02/reddit-the-red-pill-interview-howmisogyny-spreads-online.2011. [7] 宋素红,王跃祺,常何秋子 . 算法性别歧视的形成逻辑及多元化治理 [J]. 当代传播 ,2020(5):95-100. [8] Wihbey,J.The possibilities of digital discrimination: Research on e-commerce,algorithms and big data. Journalists resource,2015. [9] 昌沁 . 新闻传播中人工智能技术造成的伦理失范与对策[J]. 中国传媒科技,2020(11):28-30. -

计量
- 文章访问数: 193
- HTML全文浏览量: 3
- PDF下载量: 9
- 被引次数: 0