大数据技术

在人工智能研究中,道德偏见是不确定性的一个特殊区域,涉及小装饰品和杠杆,这些小装饰品和杠杆会拉动机器以

大数据基于AI的安全系统中的道德偏见

来源:香港服务器 作者:服务器租用 浏览量:187 更新:2020-03-13

这个问题已经在世界各地的会议和社交聊天的讨论表中浮出水面了-“机器可以打开人类吗?”这个问题经常伴随着《终结者》等电影的场景和视觉效果,但是我们所知道的和所看到的在大数据中使用AI的原因在于,在设计具有更复杂环境的更大规模的系统时,必须考虑某些不确定性和偏差。

机器“感觉”是什么?是什么使他们的行为方式不同于插入大型机的代码?如今,艾萨克·阿西莫夫(Isaac Asimov)的三项法律在定义机器在复杂环境中的行为标准时是否仍然立于不败之地?这些问题的答案在于我们选择定义游戏规则以及机器如何应对突然变化的方式。

在人工智能研究中,道德偏见是不确定性的一个特殊区域,涉及小装饰品和杠杆,这些小装饰品和杠杆会拉动机器以有时看起来有些奇怪甚至有害的方式运行。随着无人驾驶汽车的兴起和AI驱动的生产方法逐渐占领世界,一个悬而未决的问题再次需要答案。我们如何处理这些机器?

您可能还会喜欢: AI可以自我警戒并减少偏见吗?

偏向简介

数据角度来看,偏差和方差与测量值与实际值的接近程度有关。在这种情况下,方差是测量值彼此之间相差多少的度量,偏差是指测量值与实际值相差多少。在具有高精度的模型的高度特定的情况下,方差和偏差都将很小。

但是,这可能反映出该模型对新数据的执行效果有多差。然而,很难实现低偏差和方差,这是各地数据分析师的祸根。对于涉及简单决策而用简单的二进制计算还不够的用例,偏差尤其难以处理。

您可能会想问偏见如何进入系统。而且,如果一台机器无法在不低于人类的临界点上做出决定,那么为什么要首先使用它们呢?要回答这些问题,您需要查看在大数据领域中如何构建模型的一般方法。

首先从执行器和传感器中收集并清除数据,这些数据可为分析人员提供原始数据。这些值然后经过预处理步骤,在此将它们标准化,标准化或转换为除去尺寸和单位的形式。一旦将数据转换为合适的表格或逗号分隔格式,就将其插入到层或功能方程式网络中。如果模型使用一系列隐藏层,请放心,它们将具有激活函数,该函数将在每个步骤中引入偏差。

但是,偏差也可以通过许多收集方法的陷阱进入系统。也许数据没有针对某一组或某类输出进行平衡,也许数据不完整/错误,或者可能没有任何数据开始。

随着数据集变得越来越多且记录不完整,系统肯定有可能用一些预定义的值填补这些空白。这导致另一种假设偏见。

黑匣子难题

许多学者还认为,没有适当的上下文,数字可能不会意味着同一件事。例如,在有争议的《钟形曲线》一书中,作者关于种族群体间智商差异的说法受到了环境约束和差异概念的挑战。但是,如果一个人能够达成这样的解决方案,directadmin汉化,那么一台机器要花多长时间才能消除这种逻辑上的判断失误?

机会很小。如果机器被送入错误或错误的数据,它将输出错误的值。问题是由AI模型的构建模棱两可引起的。这些通常是黑盒模型,作为数据接收器和数据源存在,而没有解释内部内容。对于用户而言,不能质疑或质疑这种黑匣子模型如何得出结果。此外,结果差异还需要解决其他问题。

由于缺乏对黑匣子运作方式的了解,即使使用相同的输入,分析师也可能得出不同的结果。对于精度不是关键因素的值,这种变化可能不会产生太大的影响,但是数据领域却很少那么慷慨。

例如,如果AI系统无法预测高度特定的参数(例如pH值,温度或大气压),则工业制造商将蒙受损失。但是,当目标是解决诸如贷款兼容性,犯罪再犯甚至适用于大学录取等问题的答案时,AI缺乏清晰的价值将处于不利地位。但是,AI爱好者有责任从另一个角度解决这个问题。

必须解决层之间干扰的方法和规则,以解释每一行代码和系数所代表的含义。因此必须将黑匣子连根拔起并解剖,以了解是什么使机器滴答作响,这说起来容易做起来难。即使看一下最简单的神经网络AI,也足以表明此类系统的原始性。节点和层全部堆叠在一起,各个权重与其他层的权重相互作用。

对于训练有素的人来说,这看起来像是一笔宏伟的交易,但是对于理解机器却几乎没有解释。难道仅仅是由于人类和机器语言水平的差异?是否可以采用一种外行可以理解的格式来分解机器语言的逻辑?

偏见的类型

部分文章来源与网络,若有侵权请联系站长删除!