人工智能如何更可信?

导读:很多朋友问到关于人工智能如何更可信的相关问题,本文新媒号就来为大家做个详细解答,供大家参考,希望对大家有所帮助!一起来看看吧!

人工智能,让世界更美好,该如何正确看待人工智能?

引言:相信有很多人都已经从各种影视作品以及科幻小说中了解到了人工智能这个概念。虽然说人工智能还没有走进千家万户,但是人工智能的讨论热度从来都没有消减过。人工智能让世界更美好,该如何正确看待人工智能?

人工智能的发展

实际上人工智能的发展从早期以人为蓝本来进行形象的建设,到后来的智能化发展也就说明了人们在认知这一概念的过程中是越来越成熟了。虽然说名字叫做人工智能,但是人工智能的形态有多种的。真正的人工智能应该是更加的智能化人性化,可以代替人们去做一些事情,并且能够切实的提高人们的生活质量。比如说从医疗健康的角度上来讲人工智能完全可以代替家庭医生这样的情况之下,就可以让每个人都能够及时的了解自身的身体健康情况,不必每次都要去医院进行体检,能够随时的监测。而且对于老年人而言,这样的家庭医生也可以帮助自己,自己的生命安全得到保障。另外的话,人工智能也可以放在危险作业这上面,同时人工智能也可以帮助人们处理复杂的程序和数据。

合理控制人工智能的发展

但是不可否认的是人工智能在发展的过程中有一些伦理问题,而且过分的滥用人工智能实际上是损害了人类的权利。比如说本来自己的工作做的挺好的,但是自己的老板就购买了一台机器,而且必须要裁掉很多的人,这其实对于劳动者而言是没有必要的。而且过于快速的生产力提高,实际上也是造成了资源的浪费。所以一定要合理的控制人工智能的发展,而且在人工智能的发展的过程中一定要注意所掌握技术的企业是不是真的能够为社会做出贡献。

人工智能如何更可信?  第1张

人工智能软件的分析与验证(1) - AI软件的可靠性

随着深度学习革命的不断发展,AI算法驱动的软件产品越来越影响我们的生活。比如人脸识别、机器翻译等应用越来越广泛,技术也在像纵深方向发展,比如像自动驾驶从L2向L5不断迭代。

但是,一个硬币往往是有两面的,随着AI软件复杂性的提升,可靠性问题、安全问题的重要性也成为躲不过的关口。

算法工程师的技术栈也是有限的,对于传统的软件工程、软件分析、软件验证等方向上加的技术点容易不足。所以指望算法工程师同学靠自测来避免可靠性问题可能并不是银弹,我们需要一个跨学科的方法论来征服这片新大陆。

按照中国计算机学会软件工程专业委员会2020年发布的《智能软件可靠性的研究进展与趋势》的分类,AI软件可靠性的分类如下图所示:

其中上面的部分,也就是数据可靠性的部分,是算法同学们比较熟悉的,不仅受过专业的训练,而且在实战中也积累了比较丰富的经验。所以我们后面遇到就具体问题具体分析,直接讨论细节。

下面的部分,也就是软件和硬件平台的可靠性,是工程同学比较熟悉的,可能深度学习框架和AI加速芯片等新因素带来的一些新挑战,但是跟传统的软件还是一脉相承的。

相对复杂一些的是中间的部分,也就是模型可靠性部分,比如可解释性就是一个一直以来算法的难题。对于AI软件的正确性分析,也是一个较新的课题。

这一部分的困难在于,需要对于软件工程、程序分析等传统软件技术要有一定深度的了解,同时还要对深度学习算法等有精深的理解。

上面讲的三类可靠性,大家应该是都认可的,但是只有这些理论还太虚,我们需要讨论如何落地。

如果要保障AI软件的可靠性的话,办法无非两种:一种是测试,一种是正确性验证的方法。

我们先看下知识体系的大图:

测试的话其实挑战相对更小一些,只是相对。

首先,我们有生成对抗网络这样的利器,这是AI软件独有的方便。

其次,在传统测试中发挥重要作用的模糊测试和符号执行,在AI软件中还是可以使用。

第三,写测试脚本时,需要指定验证所期望的结果,这方面有蜕变测试等方法可用。

第四,参照普通软件的coverage测试,我们可以对AI软件也进行神经元级、网络层次级的覆盖率测试,也可能进行MC/DC分支情况覆盖率测试。

验证方面,也有传统技术和深度学习结合的方法,比如基于SAT/SMT求解器的约束求解方法,基于抽象解释的方法。

针对AI模型,也有其个性化的属性,比如局部鲁棒性属性、区间属性等,其基础是利普希茨属性。

利普希茨属性是一个连续性属性,有点类似于我们学习微积分时的连续性概念,它主要限制的是函数变化的速度。我们在神经网络中,主要限制的是向量之间的变化速度,也就是范数的变化值。在不同的函数中,变化最大值是个常数,叫做利普希茨常数,这个值在实践中我们需要做一些估计。

这一节就先说这么多,后面我们针对测式和验证两个方向依次展开。

人工智能靠谱吗?

未来那些繁重的、重复的、没有创造性、艺术性的工作将会被人工智能逐步代替,比如建筑工人、司机、快递员、保姆、银行业务员、电话客服、仓库管理员、收银员、清洁工、销售等工作。

人工智能作为科技创新产物,在促进人类社会进步、经济建设和提升人们生活水平等方面起到越来越重要的作用。国内人工智能经过多年的发展,已经在安防、金融、客服、零售、医疗健康、广告营销、教育、城市交通、制造、农业等领域实现商用及规模效应。

人工智能是需要人力、脑力、开发、高等技术与不断的研究和尝试等等一系列超高难度的作业才能完成的科技产品。当然这种研究是得到国家和人们大力支持的发展。它的发展对国际影响力是非常大的。人工智能也可以定义为高仿人类,虽然不可能会像人一样具有灵敏的反应和思考能力,但人工智能是按照人类的思想结构等等的探索而开发的研究。

人工智能的开发最主要的目的就是为了替人类做复杂、有危险难度、重复枯燥等的工作,所以人工智能是以人类的结构来设计开发的,人工智能在得到较好的开发后国家也是全力给予支持。人工智能的开发主要也是为了帮助和便利人类的生活。所以人工智能的定义一直以来都是以“协助人类”而存在的。人工智能概念的火热促进了不少行业的兴起,比如域名,许多相关的.top域名已经被注册。

以后可能在很多传统行业,比如银行,会有人工智能帮你得到更好的收益。信用卡或其他的贷款会由人工智能来决定哪些人士可以安全地放贷,而且会还钱。然后再往下人工智能可以开始动了,就可以进入工业机器人、商业机器人,终进入家庭机器人。

艾耕科技CEO韦啸:可信AI助力内容创作实现智能化

作者 | 维克多

编辑 | 琰琰

7月9日,在2021年世界人工智能大会的可信AI论坛上,艾耕 科技 CEO韦啸进行了题为 《可信AI助力内容创作实现智能化》 的报告。他在报告中指出了AI内容生产在“可信”方面遇到的挑战,并给出了三条提高AI内容生产可信性的技术建议:

1.知识图谱沉淀行业专家经验提升可控性;

2.专家系统与局部模型提升可解释性和可调性;

3.强调人+机器协同的工作模式。

此外,在报告结束,AI 科技 评论和韦啸进行了一场关于“AI发展路径”的交流,他认为当前人工智能想要取得突破性进展,必须等待其他领域,例如生物学领域,有突破性的发现。

今天的演讲题目是《可信AI助力内容创作实现智能化》,分享一下AI在内容生产方面遇到的可信挑战。回顾互联网的前世今生,从门户网站到搜索引擎、到社交网络、再到超级APP,互联网发挥的核心作用是:分发内容。而内容生产属于互联网的上游,每年制作物联网流通的内容成本超过千亿。

人工智能(AI)作为技术发展的桥头堡,未来十年的技术热点,其一定会在行业里发挥巨大的作用。

目前,AI已经能够生产各种各样的内容,例如强大的GPT-3模型,其内容生成能力一度让人类惊呼。但实际上,GPT-3生成的大量内容都是胡说八道的,没有办法直接使用。这对应的是AI稳定性问题,即生成算法不可控。

可解释性,可调性,是AI生产内容过程中碰到的另一个问题。举个例子,当我们用AI进行视频生产时,无论是半自动还是全自动的方式,采用同一模板生成的视频,在社交平台上获得的点赞数和流量却不一样。至于为什么?用户希望能够有一个解释,即是算法出了问题还是其他方面的问题?这就是内容生产遇到的AI可解释性挑战。

其实,内容生产和内容生成不同,今天AI技术大多仅支持内容生成,内容生产意味着要为产业赋能。内容生成里的专家主要有主编、编辑和运营。而内容生产需要将AI技术有机整合成一个专家系统,包含上述一系列的角色,对于不同角色进行不同程度的赋能,从而提高内容生产的能力。这也是我们一直打造的品牌“AIZAO, AI造”。

它的逻辑是先依靠电商或者品牌的营销专家,然后基于他们对行业的理解,用知识图谱支撑智能素材库,生产出合适的图、文内容,最后加上运营数据的回流,就可以构成生产力的大幅度提升。

为了让这一AI系统生成的内容更为可信,我们做了如下的尝试:1.知识图谱承载专家经验提升可控性;2.专家系统与局部模型提升可解释性和可调性;3.强调人+机器协同的工作模式。AI一定会犯错,人机协同是提高AI可信性的举措之一。

总结一下,如果想搭建一个更为可信的内容生产平台,需要遵守三条原则,第一,坚守向善价值观,不做恶;第二,建立评估体系,保证系统生产的内容可信;第三,明确算法系统的责任。我们可以感受到,互联网充满了不可信的内容,已经对 社会 产生极大负面的价值,我们希望算法设计出之后,其所承担的责任能有清晰的界定和边界。

AI 科技 评论:请问您如何看待可信AI?

韦啸:可信AI 包括几个方面:稳定性、可解释性、可调性、公平性等等。这意味着可信AI不是一个概念,更多的衡量如何把一个技术更好的赋能各个场景。

关于构建可信AI需要四方面的发力:

1.技术和学术上的突破。机器学习模型中的黑盒性是AI可信问题的源头之一,很多AI技术如自动驾驶,AI医疗影像的应用,背后其实有可解释性,可控制性的缺陷,邢波老师的Petuum,就考虑了如何提升黑盒模型的debuggability。杨强老师主推的联邦学习,又在一定程度上能解决数据隐私问题,所以技术的发展,肯定能够带来更多可信的解决方案。

2.政策、法律衡量责任。一个算法存在开发者和使用者,但算法出错,如何衡量双方的责任,是需要政策制定者考虑的事情。

3.遵守商业道德准则。算法即技术,技术中立,向善的人使用,会产生好的结果,心怀不轨的人使用,会产生恶果。

4.明确可信的目标。所有的算法都针对一个目标进行优化,我们在设立这个目标的时候,能否将可信作为一个目标衡量?

AI 科技 评论:相比深度学习,传统AI模型的可解释性比较好,您如何看待两者的关系?

韦啸:我举个例子,美国人工特别昂贵,很多车主自己动手修车。衡量一个修车匠是否能“打”的一个标准是:修车工具箱里工具种类是否丰富。这个工具箱可能有一些17世纪就有的改锥,也可能有新开发的智能电钻。其实,老改锥还是新电钻都存在于工具箱里,使用哪种锯子修车取决于具体的场景。

类比到AI内容生产领域,GPT-3这一模型确定能够提高基底模型表现,在从语料库提取特征方面,非常高效。但是,有些场景要求生成的内容丝毫不能出错,例如宝马X5的排量是2.4,如果AI生成的是2.5,显然就不符合要求。因此,这时候如果采用经典的PCFG,效果反而会更好。

因此,深度学习也好,传统模型也好,它们都在工具箱里,如何使用,关键要看具体的场景。所以,我们创业者也要摒弃一个观点:新工具不一定比传统工具产生更大的商业价值,毕竟一些比较老的模型研发成本比较低,新模型(深度学习)研发成本比较高。

AI 科技 评论:AI内容生成领域,遇到哪些可信方面的挑战?

韦啸:正如我演讲中提到的,第一是稳定性,我们在用工具创造标题的时候,有些生成的内容质量高,有些却不通顺;第二是可解释性,同一组算法生成的视频,却获得了不同的流量反馈,人工干预也无法总结优化的路径;第三是AI系统一定会犯错,不管什么模型,只要场景足够复杂系统就一定会犯错。这时候需要人机配合,往往可以大幅提高工具使用的可信度。

AI 科技 评论:在实际操作过程中,AI还无法取代人类?

韦啸:在某些特定领域,AI可以取代人工,但也不能取代人。工具取代人工一直在发生,例如超市售货,很多时候顾客选品扫码支付不需要和售货员互动,即便如此,无人超市也没有普及,这就侧面说明了售货员还有他存在的价值。但也不得不承认,超市管理中,现在所用到的人力成本比原来要少很多。

AI内容生产也是如此,某些情况下,AI剪辑视频的质量和操作精度已经超过人类了,但是仍然需要人类进行审核、把关。

AI 科技 评论:目前人工智能的发展,呈现出“大”的特点,例如大数据集、大模型,您如何看待?

韦啸:技术发展的路径非常复杂,存在很多不同的道路,大模型只是一条 探索 路径,但肯定不是唯一的路径。之前在和学者进行交流的时候,他们表达的一个观点是:其实人工智能领域也在期待其他学科,例如脑科学的突破,例如直到今天,我们清楚的知道人脑对于一些观察和决策的工作机理,例如颜色是如何被探测和判断的,但是高级的认知例如红色这个概念,大脑如何存储和计算,却没有很好解释。而这些解释上的突破,很有可能为算法的设计提供全新的思路,在大模型之外,为AI的应用打开新的场景。

由于微信公众号试行乱序推送,您可能不再能准时收到AI 科技 评论的推送。为了第一时间收到AI 科技 评论的报道, 请将“AI 科技 评论”设为星标账号在看”。

人工智能真的靠谱吗

一场Google AlphaGo与围棋世界冠军李世石的对弈吸引了全世界的目光,也让人工智能再度成为业界讨论的热点话题。人工智能自1943年诞生以来,在几十年的发展历程中经历了多次潮起潮落,人们却从未停止过对人工智能的研究与探索。当下,摩尔定律驱动计算力不断增长,云计算、大数据、移动互联网这些趋势在影响着人类社会的生活与生产方式,也成为人工智能的催化剂,促使着人工智能不断的演进。那么,在大数据时代到来的背景下,人工智能未来会朝着什么方向发展?人工智能在未来能够超越人类么?人工智能两大流派:联结主义和符号主义孰优孰劣?近日,在百分点数据与价值国际论坛上,来自北京大学数学学院教授林作铨、东南大学计算机与工程学院教授漆桂林、普惠金融首席数据科学家李文哲以及百分点集团技术副总裁刘译璟等多位人工智能领域的专家就这些话题进行了深度讨论。

众所周知,人类的智能主要包括归纳总结和逻辑演绎,与之对应的就是人工智能中的联结主义和符号主义两大最主要的流派。前者典型方法为神经网络、统计学习、深度学习等;而后者则包括形式语言、逻辑推理、专家系统等。这两大流派在人工智能发展历史中互有起落。而随着2006年加拿大多伦多大学教授、机器学习泰斗Geoffrey Hinton在《科学》杂志发表深度学习方面的论文,深度学习在学术界以及商业界持续升温,语音识别、图像识别、自然语言处理、搜索广告等深度学习相关的应用为之大热。作为联结主义的代表,深度学习俨然成为人工智能当下最为热门的领域。

对此,北京大学林作铨教授认为:“2006年开始迅速发展的深度学习恰恰在人工智能的基本原理方面并没有太大贡献。深度学习的本质是靠大量数据进行层级计算,第一层学习之后变成另一种表示,然后特征的抽取变成第二层,层级越多所达到的效果一定会更好;另外,深度学习每一层的计算或者所谓的学习其实本质就是应用数学问题,即解出一个信息函数,但是原则上这些非线性函数都是难计算的。因此,带来两大问题就是:首先,深度学习网络不断增加深度层级的意义;另外就是每一层级的计算的理论问题,计算数学解决不了,深度学习也解决不了。”

东南大学计算机与工程学院教授漆桂林则认为,让机器学习具备认知和推理能力是人工智能领域下一步需要真正思考的难题,“不是所有公司都拥有Google这样的大数据能力,Google跑深度学习的效果非常好。但是换了另外一家公司却可能没那么好的效果。如何在更小数据量上面提高机器的学习能力,其实需要让它具有认知和推理能力。目前几个深度学习领域的权威专家已经在不同场合表示需要把人类的规则推理引入到神经网络,使得神经网络具有更好的解释性。”

“人们对于深度学习的理解还没到我们想要的人工智能的程度,想要通过深度学习的模型达到人的智慧还非常难做到。”普惠金融首席数据科学家李文哲补充道。

对于符号主义而言,认为人工智能源自数学逻辑,核心思想就是应用逻辑推理法则,在人工智能中体现就是机器定理证明。符号主义认为知识是信息的一种形式,是构成智能的基础,知识表示、知识推理、知识运用是人工智能的核心,知识通过符号表示,认知即为符号的推理过程,推理过程又可通过形式化语言来描述,并且主张通过逻辑方法来建立人工智能统一体系。林作铨教授表示:“符号主义的核心目标仍然是探寻人工智能的基本原理,属于基础研究。人工智能的原始目的之一就是通过计算机来模拟人的智能行为,探寻智能的基本原理,这个目标还远远没有达到。”

人工智能之所有在当下受到广泛关注,除了类似Watson参加危险游戏、Google AlphaGo对战围棋世界冠军这些热门事件外,更多的是来自基于人工智能的应用开始得到广泛使用,比如银行领域的自动欺诈检测系统应用、零售商的销售定价、智能家居机器人、人脸识别系统、自动语音识别等等。那么对于公司而言,在人工智能领域方向是选择联结主义还是符号主义呢?

对此,普惠金融首席数据科学家李文哲以金融业为例表示两种方向都非常有用,他表示:“金融领域的特点是,公司刚成立不会拥有大量数据,因此不会尝试联结主义这种做法,因为像深度学习肯定需要大量的数据才能得到一个较好的结果。在数据量较少的时候,专家的经验才是最重要的,这就属于符号主义。比如对欺诈的分析、信用风险的评估,这些都是基于专家先前的经验来做的。而当公司发展多年之后,积累了大量的数据样本,则可以尝试联结主义的算法。”在李文哲看来,采用符号主义还是联结主义最大的考虑因素就是数据量,“具体到公司业务上考虑联结主义还是符号主义就是公司的数据量和数据复杂度,符号主义很多都是靠经验,很多逻辑是人为去定义。而当数据量非常庞大、而且属性又非常复杂的时候,就很难用这种方式去定义,这时候就需要采用深度学习的方式。”

不过,在李文哲看来,深度学习仍然处于发展的初级阶段,用户仍然在做很多尝试和实验,他表示:“深度学习从2006年开始逐渐火起来,但还是较初级的阶段,很多做深度学习的人在‘蛮干’,尝试不同的方法。当发展到一定阶段之后,就会有人研究理论层面。”

通常,人工智能往往划分为三个层级,即弱人工智能、强人工智能以及超人工智能。像Google的AlphaGo就是弱人工智能的典型代表,在某一单个领域拥有强大的人工智能程序;另外,像机器人写稿、Siri、微软小冰等都属于这个层级;通常弱人工智能并没有自主意识,按照固定结构去计算,并获取答案。而随着大数据以及计算能力的普及,弱人工智能可以被看成已经基本实现。那么,能够主动寻找问题、构造问题的模型、并解决问题的强人工智能什么时候到来?甚至超过人类的超人工智能时代离我们又有多远?

众多专家认为强人工智能或者超人工智能时代将会在不远的将来到来。美国未来学家、Google工程主管Ray.Kurzweil在其《奇点临近》一书中更是预言:“2045年左右,人工智能将会来到一个\'奇点\',跨越这个临界点,人工智能将超越人类智慧,人类历史将会彻底改变。”不过,林作铨教授并不认同这种观点,他表示:“关于人工智能威胁人类的话题这几十年以来都一直持续不断,我并不认同2045年会是人工智能超越人类的时间奇点,最近几年搞的强人工智能,也有人称之为通用人工智能,基本都不了了之,在短时间能很难看到实现的可能。”

“人工智能已经有很多成熟的方法得到了应用,已经成为基础设施中重要的一部分。历史上,人工智能也热过好几次,这次人工智能热对于人工智能发展有推动作用,虽然可能有泡沫,但是这个过程其实对人工智能发展有帮助。”林作铨教授最后表示道。

结语:以上就是新媒号为大家整理的关于人工智能如何更可信的相关内容解答汇总了,希望对您有所帮助!如果解决了您的问题欢迎分享给更多关注此问题的朋友喔~

以上内容为新媒号(sinv.com.cn)为大家提供!新媒号,坚持更新大家所需的百科知识。希望您喜欢!

版权申明:新媒号所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,不声明或保证其内容的正确性,如发现本站有涉嫌抄袭侵权/违法违规的内容。请发送邮件至 k2#88.com(替换@) 举报,一经查实,本站将立刻删除。

(0)
上一篇 2023-03-09
下一篇 2023-03-09

相关推荐

发表回复

登录后才能评论