人工智能如何训练围棋的(2023年最新分享)

导读:今天新媒号来给各位分享关于人工智能如何训练围棋的的相关内容,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

阿尔法围棋的程序原理

阿尔法围棋(AlphaGo)是一款围棋人工智能程序。这个程序利用“价值网络”去计算局面,用“策略网络”去选择下子。 阿尔法围棋(AlphaGo)是通过两个不同神经网络“大脑”合作来改进下棋。这些大脑是多层神经网络跟那些Google图片搜索引擎识别图片在结构上是相似的。它们从多层启发式二维过滤器开始,去处理围棋棋盘的定位,就像图片分类器网络处理图片一样。经过过滤,13 个完全连接的神经网络层产生对它们看到的局面判断。这些层能够做分类和逻辑推理。

这些网络通过反复训练来检查结果,再去校对调整参数,去让下次执行更好。这个处理器有大量的随机性元素,所以人们是不可能精确知道网络是如何“思考”的,但更多的训练后能让它进化到更好。

第一大脑:落子选择器 (Move Picker)

阿尔法围棋(AlphaGo)的第一个神经网络大脑是“监督学习的策略网络(Policy Network)” ,观察棋盘布局企图找到最佳的下一步。事实上,它预测每一个合法下一步的最佳概率,那么最前面猜测的就是那个概率最高的。这可以理解成“落子选择器”。

第二大脑:棋局评估器 (Position Evaluator)

阿尔法围棋(AlphaGo)的第二个大脑相对于落子选择器是回答另一个问题。不是去猜测具体下一步,它预测每一个棋手赢棋的可能,再给定棋子位置情况下。这“局面评估器”就是“价值网络(Value Network)”,通过整体局面判断来辅助落子选择器。这个判断仅仅是大概的,但对于阅读速度提高很有帮助。通过分类潜在的未来局面的“好”与“坏”,AlphaGo能够决定是否通过特殊变种去深入阅读。如果局面评估器说这个特殊变种不行,那么AI就跳过阅读在这一条线上的任何更多落子。

人工智能如何训练围棋的(2023年最新分享)  第1张

第一个战胜围棋世界冠军的人工智能程序是什么?

第一个战胜围棋世界冠军的人工智能程序是阿尔法狗。在韩国首尔举行的2016围棋人机大战中,阿尔法狗战胜了韩国名手李世石。

AlphaGo程序是美国谷歌公司旗下DeepMind团队开发的一款人机对弈的围棋程序,被中国棋迷们戏称为阿尔法狗。游戏是人工智能最初开发的主要阵地之一,比如博弈游戏就要求人工智能更聪明、更灵活,用更接近人类的思考方式解决问题。

扩展资料:

AlphaGo通过蒙特卡洛树搜索算法和两个深度神经网络合作来完成下棋。在与李世石对阵之前,谷歌首先用人类对弈的近3000万种走法来训练“阿尔法狗”的神经网络,让它学会预测人类专业棋手怎么落子。

然后更进一步,让AlphaGo自己跟自己下棋,从而又产生规模庞大的全新的棋谱。谷歌工程师曾宣称AlphaGo每天可以尝试百万量级的走法。

参考资料来源:人民网——“阿尔法狗”为什么厉害

Google人工智能击败欧洲围棋冠军,AlphaGo 究竟是怎么做到的

因为程序改进过,选点,大局观的判断有了不小的进步。也修复了以前的bug,棋力有了突破性提高,

从人工智能技术发展上看,DeepMind使用了“深度学习”技术,而非象俞斌估计的和职业高手合作。电脑通过海量学习人类高手的棋谱,用深度神经网络快速模拟出人的招法,下出来的棋就很象人了。樊麾二段说:“如果没人告诉我,我会想对手下得有一点怪,但肯定是个很强的棋手,一个真正的人”。

而DeepMind小组在搜索技术上取得了更大突破。跟Darkforest相似,AlphaGo用一个深度神经网络(policy network,“策略网络”)减少搜索的选点,象人类高手一样,只考虑少数几个可能的选点。此外,他们还建立了另一个深度神经网络(value network,“值网络”),象人类高手一样,思考到某个局面就有了结论,不必象之前的蒙特卡洛模拟那样下到终局,极大地减小了搜索的深度。

DeepMind引入的另一个逆天的高招是,让围棋人工智能自己和自己下,总结经验,自我不断提高!

这个人工智能自学习的要点是,不需要告诉电脑人类的经验,就让它自己玩这些电脑游戏,只是给出玩的分数。电脑看着分数不断纠正自己的策略,最后就发展出比人类还强的电游技术。这次的AlphaGo也用了这个技术,这又是比其它电脑围棋程序强的地方。从Nature的文章看,DeepMind的绝招是,用50台电脑让AlphaGo不断和自己对弈,下了3000万盘棋!然后每盘棋选取一个局面(不多选,以避免同一盘棋中不同局面之间的相关性),根据这盘棋的最终结果判断局势优劣。这样获得了3000万个训练数据,用于训练生成“值网络”。暴力生成这么多数据需要海量的计算资源和投入,确实只有谷歌这样的大公司敢想敢做。可以看出他们的战略是智能和蛮力两手抓,两手都要硬,哪个合适就用哪个,并且互相帮助。

通过这样三招,DeepMind小组确实在围棋人工智能上取得了巨大突破。而且研究方法的潜力很大,从这个方向上走,最终象“更深的蓝”一样战胜人类最高手是完全可以想象的。一个月前,DeepMind小组就报告说围棋人工智能取得了巨大突破,会战胜人类,但当时棋迷与职业棋手并未留意。现在有了棋谱,又有了技术细节,就显得可信多了。

人工智能\"阿尔法围棋\"究竟什么样

在之前的人机对决中完胜人类围棋冠军,据介绍,人工智能阿尔法狗每天都在模拟对阵,学习更多的方法,而且能积累对手的下棋棋谱。每下一步都经过数以千万计算量获取最佳步骤。可以说现在所向披靡。是目前人工智能中的一个杰作。

人工智能阿尔法围棋用了哪项新技术

阿尔法围棋用到了很多新技术,如神经网络、深度学习、蒙特卡洛树搜索法等,使其实力有了实质性飞跃。美国脸书公司“黑暗森林”围棋软件的开发者田渊栋在网上发表分析文章说,阿尔法围棋系统主要由几个部分组成:

1、策略网络(Policy Network),给定当前局面,预测并采样下一步的走棋。

2、快速走子(Fast rollout),目标和策略网络一样,但在适当牺牲走棋质量的条件下,速度要比策略网络快1000倍。

3、价值网络(Value Network),给定当前局面,估计是白胜概率大还是黑胜概率大。

4、蒙特卡洛树搜索(Monte Carlo Tree Search),把以上这四个部分连起来,形成一个完整的系统。

“阿尔法狗”采用的是利用“价值网络”去计算局面,用“策略网络”去选择下子。阿尔法狗依旧处于一个弱人工智能的水平。什么是弱人工智能?简单的说,所谓弱人工智能就是仅在单个领域比较牛的人工智能程序。

比如我们熟悉的苹果Siri,就是一个会卖萌的弱人工智能程序。而阿尔法狗根据这个标准,依旧在这个范围以内。充其量,最多是人类围棋的陪练。而这场人际对决,本质上更像是谷歌的一场科技秀。

阿尔法围棋(AlphaGo)是第一个击败人类职业围棋选手、第一个战胜围棋世界冠军的人工智能机器人,由谷歌(Google)旗下DeepMind公司戴密斯·哈萨比斯领衔的团队开发。其主要工作原理是“深度学习”。

2016年3月,阿尔法围棋与围棋世界冠军、职业九段棋手李世石进行围棋人机大战,以4比1的总比分获胜;2016年末2017年初,该程序在中国棋类网站上以“大师”(Master)为注册账号与中日韩数十位围棋高手进行快棋对决,连续60局无一败绩。

2017年5月,在中国乌镇围棋峰会上,它与排名世界第一的世界围棋冠军柯洁对战,以3比0的总比分获胜。围棋界公认阿尔法围棋的棋力已经超过人类职业围棋顶尖水平,在GoRatings网站公布的世界职业围棋排名中,其等级分曾超过排名人类第一的棋手柯洁。

2017年5月27日,在柯洁与阿尔法围棋的人机大战之后,阿尔法围棋团队宣布阿尔法围棋将不再参加围棋比赛。2017年10月18日,DeepMind团队公布了最强版阿尔法围棋,代号AlphaGo Zero。

2017年7月18日,教育部、国家语委在北京发布《中国语言生活状况报告(2017)》,“阿尔法围棋”入选2016年度中国媒体十大新词。

结语:以上就是新媒号为大家整理的关于人工智能如何训练围棋的的相关内容解答汇总了,希望对您有所帮助!如果解决了您的问题欢迎分享给更多关注此问题的朋友喔~

以上内容为新媒号(sinv.com.cn)为大家提供!新媒号,坚持更新大家所需的百科知识。希望您喜欢!

版权申明:新媒号所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,不声明或保证其内容的正确性,如发现本站有涉嫌抄袭侵权/违法违规的内容。请发送邮件至 k2#88.com(替换@) 举报,一经查实,本站将立刻删除。

(0)
上一篇 2023-03-09
下一篇 2023-03-09

相关推荐

发表回复

登录后才能评论