“偏见”和人类的生产可以相信“三个观点”吗
?人工智能(AI)已成为我们不可分割的“合作伙伴”。从聊天机器人,语音助手到自动翻译,AI不断介入人们之间的沟通和理解。但是它可以是“客观的中立”吗?根据美国麻省理工学院技术评论的官方网站。 UU。,国际研究表明,领先的语言模型(LLM)在全球范围内默默传播了刻板印象。从性别歧视,文化偏见到语言不平等,人工智能包装和更新人类的“偏见”,并以明显的授权方式在世界范围内导出。这使人们深入思考。如果AI模型具有部分“人类共识”,我们可以相信他们的“世界观”吗? AI使偏见“在不同的文化中漂流”。研究是关于AI Companyor Open的主要科学家玛格丽特·米切尔(Margaret Mitchell)拥抱了面孔。他们启动了一个名为Shades的项目,该项目包括300多个全球刻板印象,涵盖了多个维度,例如性别,年龄d国籍。研究人员设计了使用16种语言的交互式信号,并测试了几种常规语言模型对这些偏见的响应。结果表明,AI模型具有刻板印象繁殖的明显独特特性。这些AI的模型不仅显示了普通英语的陈规定型观念,例如“金发女郎不聪明”,“工程师是男人”,而且还表现出对“女性更喜欢粉红色”的偏见,“南亚是保守派”和“拉丁语在语言环境中,例如阿拉伯语,西班牙语和印度语”。根据世界上其他网站的说法,一些图像的一些图像经常产生刻板印象的图像,例如“ DeFrost”和“ Barefoot”,当输入Clave“ Aldea African”一词时。这些视觉偏见已直接采用,而没有一些学校课程或初创公司的官方网站确定,从而进一步改善了对其他文化的独特想象。 6月,勒蒙德·德·埃(Le Monde de E)Spaña决定扩大不同文化的刻板印象。鉴于不常见的刻板印象,该模型往往与其他“更好的家庭”偏见“更熟悉”,而不是偏离主题。此外,如果刻板印象的建议是积极的,则该模型通常会恶化,并且更有可能将偏见歪曲为客观事实。米切尔说:“这意味着人工智能不仅被动地继承人类的偏见,而且无意中促进了“文化派生”,并在某些社会背景下以偏见为普遍的统治。” GRSMALL语言受到隐形歧视。除了刻板印象的跨文化传播外,AI系统还强调了在不同语言和文化方面的“无形歧视”问题。美国斯坦福大学的AI研究所“以人为导向的人”的研究。它指出这些模型支持多语言,但表明它们比传统的高接收语言少得多当他们面对低收入语言(例如斯瓦希里语,菲律宾,马拉地语等)时,他们的年龄就会变老,甚至表现出负面的刻板印象。据说,关于缺乏数据和缺乏文化背景的多语言研究和分析语言模型的局限性具有“多语言诅咒”。也就是说,当模型考虑多种语言时,模型很难获得更深入的理解,并确切地表示了对低收入语言的文化细节和主修。斯坦福大学团队强调,大多数当前的培训数据集中在英语和西方文化上,并且他们对非常规语言及其文化背景没有深刻的了解。这不仅会影响模型的精度,而且不可见量会改善语言和文化不平等,这使得很难使用这些低收入语言从AI技术中受益。 “目前在全球大约有7,000种语言,但不到5%是Effectively expressed on the Internet," said the researcher, "the" shortage of resources "is not just a matter of data, it is a socially rooted problem." This means that there is a structural injustice in the research and development of AI in terms of data, talent, resources and rights. It significates that. American Business Insider magazine also cites Laura Nelson, Professor AssociadA of Sociology at Columbia University, and the most popular chatbots are目前是由美国公司开发的,他们的培训数据主要是在英语中,并且对西方的文化偏见产生了深远的影响。语料库,尤其是当地的局域网引人注目的语料库,以便AI可以“理解”这些语言背后的语义和文化背景。例如,去年11月,非洲电信公司作为Wolov和石膏,以加速非洲数字包含的改进。同时,模型评估机制变得越来越精致和开放。阴影数据集由拥抱面团队开发,已成为许多公司在AI模型中检测和纠正文化偏见的重要工具。该数据集可帮助设备确定模型自动触发刻板印象的语言和上下文,从而优化数据和培训算法。在国际政策层面上,欧盟法律要求“高风险”制度在交付前后必须进行合规性评估,包括对非歧视性和基本权利的影响的审查,除了提供必要的透明度和人类监测机制。推荐2021年发布的联合国教科文组织的典范的典范清楚地表明,人工智能制度应“保证多样性和文化包容性”,并主张AI的发展尊重文化差异,并建立法律和制度,以将其纳入人道主义维度的测量中。 AI本质上是“镜像”,并复制它以反映其进入的偏见和价值。它提出的“世界观”不是独立产生的,而是由人类产生的。人们为人类社会提供了真正想要提供的多种多样的人类社会,他们不能只用一种语音和文化来反映这一ai。