取消乐享牛牛棋牌,开元棋牌游戏,棋牌现金手机版
乐享牛牛棋牌,开元棋牌游戏,棋牌现金手机版历史

    老把厨房中的男人认成女人 AI“偏见”怎么说你好?

    来源:南方都市报      日期:2019-06-27 06:33:00    http://afsharm.com

    原标题:老把厨房中的男人认成女人 AI“偏见”怎么说你好?

    欧盟

    中国

    中国

    政府参与制定的人工智能治理准则或建议

    9份准则提及负面问题

    新加坡

    G20&经合组织

    近年,人工智能技术飞速发展,然而相关的人工智能治理准则仍有待进一步完善。6月17日,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则—发展负责任的人工智能》(以下简称《治理原则》),提出了人工智能治理的框架和行动指南。

    据不完全统计,目前,政府参与制定的人工智能治理准则或建议共有9份,其中涉及国家共50个,涉及国际组织或论坛共3个。AI前哨站对这些准则或建议进行文本分析后发现,“数据偏见”是各国各地区最为担心的问题。

    AI前哨站结合各文件的文本分析发现,准则中特别指出的负面问题共有15类。其中,数据偏见、不公平等问题提及次数最多,其次是隐私安全和A I故障、错误决策等问题。当然,这些问题之间并不是割裂的,比如,数据垄断导致获取更多乐享牛牛棋牌,开元棋牌游戏,棋牌现金手机版数据的一方占据优势,也会导致不公平现象;数据和训练质量差也会导致偏见、不公平等问题。其中,多有提到的“影响人类自主性”指,AI可能会被用于塑造和影响人类行为,也可能会被误用去操控他人的决策,这是极其危险的。

    数据偏见最不受待见

    过去,人们大概不会想到,一向以准确、客观、没有感情倾向著称的计算机系统,也会跟人类一样具有偏见。英国对这一问题进行了完整的阐述:一方面,技术人员使用不准确、不完整的数据训练人工智能系统,或是在训练中出现了错误,都可能导致偏见。比如,谷歌的视觉识别算法难以分辨出黑猩猩和黑种人,该问题被发现后的近三年,仍然没有得到解决,谷歌只是简单地在谷歌相册等产品中禁止了乐享牛牛棋牌,开元棋牌游戏,棋牌现金手机版黑猩猩的功能。另一方面,数据本身可能就暗含了社会中的固有偏见(一个典型的例子是,在弗吉尼亚大学的一项研究中,人工智能总是把厨房中的男人认成女人)。

    如果研发人员压根不知道数据里有隐藏的偏见,就会出现问题。更麻烦的是,许多人工智能系统使用多层神经网络进行决策,研发人员无法知晓人工智能的决策过程,也就难以准确掌握造成偏见的原因。要在“算法黑箱”中排查问题、修正偏见,难度可想而知。

    此外,新加坡提到了消费者可能遭遇的偏见,有些类似此前在国内引发高度关注的“大数据杀熟”。比如两名消费者在同一地点、时间使用打车乐享牛牛棋牌,开元棋牌游戏,棋牌现金手机版软件,前往相同地点,却发现两人的打车费不同,消费者是无法了解到打车费是如何得出且为何不同的。另外,文件指出,对于一些可能对消费者产生重大影响的决策,消费者有权知晓人工智能是怎么参与的、决策是如何作出的。尤其是在医疗领域,如果人工智能做了错误的诊断,其后果显然比推荐了错误的商品严重得多。

    隐私安全受重视

    在隐私安全方面,各国政府与国际组织都提到了人工智能可能侵犯隐私的问题。欧盟提出,隐私和数据保护必须在人工智能系统生命周期的所有阶段得到保证。日本内阁府提出,人工智能使用个人数据时应该有确保准确性和合法性的机制,并使个人数据主体能够充分参与管理自己的隐私数据。中国则提出,应完善个人数据授权撤销机制,反对任何窃取、篡改、泄露和其他非法收集利用个人乐享牛牛棋牌,开元棋牌游戏,棋牌现金手机版信息的行为。

    部分工作消失但会创造新机会

    备受大众关注的“人工智能是否会导致人类失业”的问题,在英国、经合组织和G 20的文件中都有提及。经合组织和G 20提醒,人工智能发展可能导致劳动力市场转型,各国政府应做好应对准备,确保那些被替代的人类劳动者也能平稳过渡。政府可以提供培训支持,帮助失业人士获得新的工作机会。

    在英国的文件中,有研究者声称,人工智能的应用可能会像上个世纪的工业化、自动化浪潮一样,导致部分工作消失的同时,也创造一些新的工作机会。不过,也有研究者指出,过去的自动化往往是将一项原有工作分解,人类可以围绕着新技术重组工作,这一模式在未来的高度自动化时代不一定能延续。有研究者认为,蓝领、白领受到的冲击将会更大,工作机会减少的趋势已在客服、话务员等乐享牛牛棋牌,开元棋牌乐享牛牛棋牌,开元棋牌游戏,棋牌现金手机版,棋牌现金手机版出现。

    据此,文件写道,随着人工智能的进入,劳动力市场正发生巨大变化,由于这是一个全新的未知领域,任何预测都具有“投机性”。英国建议政府持续评估人工智能的发展情况,并作出政策回应,其中,在技能和培训方面增加投入,是一项不可或缺的举措。

    值得注意的是,英国和欧盟的文件中还都分析了人工智能军事化的问题,主要是“致命的自主武器系统(LAWS)”。英国文件指出,目前各国“自主武器”的内涵并不一致,英国将“自主”描述为“能够理解高水平的意图与指 导”过于宽泛,可能导致LAWS的发展缺乏限制。欧盟文件则指出,将人工智能应用于LAWS带来了基本的伦理问题,可能导致前所未有的军备竞赛,与此同时,高度自主化的武器也有脱离人类控制的风险。

    词频分析

    除了整体的负面问题分析,AI前哨站也对9份文件的正文主体进行了词频分析。

    新加坡

    数据偏见需要引起重视

    新加坡《人工智能治理框架建议模型》

    此份建议的最高频词汇是“组织”,强调使用A I的组织主体,其次有“数据”、“决定”、“偏见”和“风险”,注重数据收集、处理和训练过程中是否出现偏见等问题。比如,建议中写道:

    “最小化内在的歧视,即人工智能模型框架需要注意数据集的内在歧视,这可能会导致不理想的效果,比如无意识的歧视决策。”

    G20&经合组织

    强调政府和相关方作为

    经合组织和G20的建议一脉相承

    G20的《人工智能准则》借鉴了经合组织的《人工智能建议》,两份文件都是多国政府间协商推出的建议,强调行动主体,包括“政府”、“行动者”和“利益相关方”,同时强调A I系统必须是值得信赖的、负责任的、适合的。

    欧盟

    AI治理需落地

    欧盟AI原则最接地气

    从高频词汇“要求”、“评估”以及结合文本的分析过程中,AI前哨站发现,欧盟在对AI系统和数据提出原则建议的基础上,提供了目前为止,在政府推出的AI准则中,最具体、可落地的要求和评估,比如明确了组织中各部门的AI治理职责。

    在“隐私和数据治理”一节,具体问题有11个,包括“你是否考虑过一些方法,可以在不使用或最少使用敏感个人数据的情况下开发AI系统或训练模型?”“你是否通过加密、匿名化等措施来增强隐私保护?”“你如何验证数据没有遭到危害和入侵?”,等等。其次是新加坡、迪拜和英国的建议文件,有涉及落地办法,比如新加坡提供了从严重性和可能性两方面,评估“AI决策过程是否需要人类参与”的模型,迪拜提供了实际的例子和解决办法的参考,而日本、中国、经合组织和G20的文件偏重原则阐述。

    中国

    发展才是硬道理

    中国:新一代人工智能治理原则—发展负责任的人工智能

    此份治理原则的最高频词汇是“发展”,结合文本发现,中国强调人工智能的健康发展、协调发展、绿色发展和共享发展等方面。另外,还强调人工智能对“人类”和“社会”的影响,需要“尊重隐私”、“尊重人类权益等”。中国政策文件中的高频词“和谐”、“文明”、“公正”等词汇也有所出现。

    注:词频分析选择的文本主体不包括序言、介绍等文本,词频分析去除“to”,“and”,“of”,“model”,“frame-work”等无效词汇。

    注:文件原名如下:英国AI in the UK: ready, willing and able? 日本总务省Draft AI Utilization Principles, 迪拜AI Ethics Principles & Guidelines, 新加坡A Proposed Model Artificial Intelligence Governance Framework, 日本内阁府Social Principles of Human-Centric AI, 欧盟Draft Ethics Guidelines for a Trusted AI, 经合组织The Recommendation on Artificial Intelligence, G20 AI Principles.

    采写:南都见习记者 陈志芳 南都记者 冯群星

    作者:陈志芳 冯群星

    原标题: 老把厨房中的男人认成女人 AI“偏见”怎么说你好?

    本文地址:http://afsharm.com/zixun/1561594831134066.html 转载请注明出处!

    上一篇:美国加州新规7月生效 采购枪支弹药时需调查背景

    下一篇:巴赫:申办规程改变不会影响奥运会的魅力