DeepMind团队希望透过休息,让人工智慧好好複习经验

2020-06-06 作者: 围观:649 91 评论
DeepMind团队希望透过休息,让人工智慧好好複习经验

本文来自合作媒体 Mashdigi,INSIDE 授权转载

去年 Google 宣布将与暴雪娱乐携手以《星海争霸 II》作为人工智慧系统「AlphaGo」学习内容后,暴雪娱乐稍早释出相关 API 内容,让包含 Google 在内开发者能将旗下人工智慧系统与《星海争霸 II》游戏内容衔接,藉此进行游戏内容游玩操作训练,让人工智慧系统能透过游戏游玩模拟学习人脑思考模式。

而另一方面,Google 人工智慧团队 DeepMind 日前除了让人工智慧系统能记取先前学习经验,并且持续从错误中学习之后,更希望能透过模拟人脑休息情况,让人工智慧系统能有更好运算发挥效果。

听起来似乎点微妙,毕竟传统印象中的人工智慧系统并不需要「休息」即可进行不中断运算,但此次 DeepMind 团队所提出论点,则是基于先前希望让人工智慧系统能记取过往学习经验,进而可在下一次学习或运算过程以更短时间发挥执行成效的基础,使得人工智慧系统即使处于休眠、离线状态,依然可藉由现有储存数据持续进行「学习」。

这样的作法,其实是模拟人脑在持续学习过程必须有一些时间进行「消耗」、「吸收」,否则可能会在学习过程产生误差,进而导致更大错误产生。因此 DeepMind 团队并非实际让人工智慧系统运算电脑真的进入休息状态,而是改变演算流程,让电脑系统可在学习新知之余,持续进行「複习」,进而累积更多学习经验。

从另一方面来看,这样的学习模式也能应用在不同装置设备,例如今年在 Google I/O 2017 针对手机等行动装置提出的 TensorFlow Lite,基本上就能透过全新运算模式让手机持续学习使用者行为,藉此让手机能以更少电力发挥最大运算效益。

而在稍早宣布消息里,暴雪娱乐已经正式开放《星海争霸 II》API 内容,将可让 Google 在内开发者藉此资源持续训练人工智慧系统,透过複杂、快速的游戏进行速度,让人工智慧系统能学习人脑快速思考、快速操作的反应模式,对于整体人工智慧系统运算效率提昇将有一定帮助。