首页 信息互动 > 正文

科技信息: 当人工智能误判不是事故时

21世纪是科技高速发展的时代,互联网渐渐走入人们的生活。互联网就像一张网。把我们紧紧联系起来,现在的衣食住行都离不开互联网科技,下面分享一篇关于互联网科技的文章给大家。

关于人工智能无意识偏见的讨论,往往集中在那些无意中对整个社会造成不成比例伤害的算法--例如,那些错误预测黑人被告将犯下未来罪行的算法,或者主要是利用白人男性的照片开发的面部识别技术,这些技术在识别女性和深色皮肤的人方面做得很差。

但问题可能比这深得多。社会应该警惕另一个转折:邪恶的行为者可能通过故意在人工智能系统中引入偏见,试图攻击人工智能系统,而这些系统中的数据被走私到帮助这些系统学习的数据中。这可能会给网络攻击、虚假信息活动或虚假新闻的泛滥带来令人担忧的新因素。

根据美国政府关于大数据和隐私的一项研究,有偏见的算法可能更容易掩盖歧视性贷款、招聘或其他令人不快的商业行为。算法的设计可以利用看似无害的因素,这些因素可能是歧视性的。使用现有的技术,但使用有偏见的数据或算法,可以更容易地隐藏邪恶的意图。商业数据经纪人收集和保存各种信息,如在线浏览或购物习惯,这些信息可以以这种方式使用。

有偏见的数据也可以作为诱饵。公司可能会发布有偏见的数据,希望竞争对手能利用它来训练人工智能算法,从而导致竞争对手降低自己产品的质量和消费者对它们的信心。

最后,来自外国行为者的国家安全威胁可能利用蓄意的偏见攻击破坏政府合法性或加剧公众两极分化,从而破坏社会稳定。这与据报道试图通过创建社交媒体帖子和购买旨在煽动种族紧张关系的在线广告来利用意识形态分歧的策略很自然地相吻合。

在算法决策中加入故意的偏见可能是极其简单和有效的。这可能涉及复制或加速产生偏见的现有因素。许多算法已经被输入有偏差的数据。攻击者可以继续使用这样的数据集来训练算法,并对它们所包含的偏见有先见之明。这会使这些攻击变得如此阴险和潜在的有效。攻击者会在科技行业接受过偏见培训的关注浪潮中冲浪,加剧围绕多样性和包容性问题的两极分化。

通过篡改训练数据来“毒害”算法的想法并不是完全新颖的。美国高级情报官员警告称,网络攻击者可能会偷偷访问数据,然后修改数据,以损害其完整性。证明恶意意图将是一项重大挑战,需要加以解决,从而阻止。

但动机可能是无关紧要的,任何偏见都是令人关切的,是社会基础设施完整性的结构性缺陷。各国政府、公司和个人越来越多地以各种可能造成偏见的方式收集和使用数据。

这表明,偏见是一个系统性的挑战--一个需要整体解决的挑战。对人工智能中无意中的偏见提出的修正旨在提高劳动力的多样性,扩大获得多样化培训数据的机会,并增加算法透明度(即查看算法如何产生结果的能力)。

已经采取了一些行动来落实这些想法。学者和行业观察人士呼吁对技术偏见进行立法监督。科技公司已经承诺通过使员工多样化和提供无意识偏见培训来消除产品中的无意识偏见。

与整个历史上的技术进步一样,我们必须继续研究我们如何在社会上实施算法,以及算法产生了什么结果。识别和解决那些开发算法的人的偏见,以及用来训练他们的数据,将大大有助于确保人工智能系统造福于我们所有人,而不仅仅是那些利用它们的人。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。