AI能否成为游戏行业未来的突破点?
近日,《2020年1-6月中国游戏产业报告》发布。 报告显示,今年上半年,中国游戏行业实际销售额同比增长22.34%,实现逆势增长。 不过,报告也指出,随着游戏市场规模的扩大,人口红利逐渐消失,用户规模增长放缓,游戏行业竞争日趋激烈。
伴随着用户争夺战的,还有日益严格的游戏监管政策。 自2018年版号限制以来,游戏版号发行量持续下降。 监管部门拟通过数量控制引导行业创新和质量升级。
顺应这一趋势,“游戏出海”、“云游戏”再次成为热门话题。 但无论做出哪种选择,对于游戏厂商来说都是一场优胜劣汰、优胜劣汰的考验。 人工智能或许可以为游戏开发商加速游戏创新、打造高品质游戏、创造更好体验、抢占更多市场份额提供更多可能。
在游戏开发的早期,AI其实已经被用来解决游戏设计问题,比如20世纪80年代风靡全球的经典街机游戏《吃豆人》。
在这款游戏中,玩家需要一边躲避四种不同颜色怪物的追击,一边吃掉迷宫中所有的豆子。 这四种不同颜色的怪物使用不同的追逐算法,因此它们不会排队追逐玩家,而是会从不同的路径、以不同的方式追逐和拦截玩家。 在《吃豆人》中,游戏角色首次展现出丰富的个性。 此外,游戏还利用Meta AI为不同级别的玩家动态调整难度,提供更加个性化的游戏体验。
随后,越来越多的电子游戏开始将AI技术与游戏相结合。 在这些游戏中,AI大多扮演游戏中的怪物或Boss的角色。 主要目的是带来更好的游戏体验和操控便利性。
近年来,随着电子游戏的不断发展和技术的进步,AI开始在游戏中发挥更多的作用和功能。 例如,在《巫师3》中游戏开发中的人工智能,AI可以根据设定的动作和场景自动生成过场动画。 镜头位置、角色表演内容和动作变化全部由AI自动完成。
本篇文章我们将从游戏平衡的角度重点探讨AI如何辅助游戏设计。
随着人工智能技术尤其是强化学习技术的不断发展,我们可能更加熟悉新闻中称霸各类游戏的AI:围棋世界冠军柯洁的AlphaZero在围棋比赛中击败了99.8%的棋手。星际争霸。 “AlphaStar”、在电子竞技比赛中击败世界冠军的 Dota2 AI“OpenAI 五人”、在六人无限注德州扑克中击败人类职业选手的 Pluribus……
不过,游戏AI的目的并不是完全打败人类,而是提供媲美的战斗体验,保证游戏难度均衡,让玩家享受竞技乐趣。 下面将从战斗机器人、测试机器人、游戏匹配等方面阐述游戏AI如何帮助保证游戏平衡。
小怪、Boss、NPC等电脑控制的游戏机器人不仅是游戏中必要的角色,有时甚至可以成为游戏的一大卖点。 比如日本游戏厂商From Software开发的《魂》系列和《只狼:影逝二度》,其高难度关卡战斗设计引起了玩家的广泛讨论,激起了很多游戏高手的挑战欲望。
在PVP游戏中,自动化战斗机器人也有多种用途,例如新手指导、高级练习中的陪练机器人等。
然而,实现一个智能、有趣的游戏机器人并不是一件容易的事。 单纯通过调整游戏角色的数值来调整AI强度并不适合所有游戏。 如果游戏太难或太简单,都会引起玩家的反感,大大降低游戏的乐趣。 我们真正需要的是一个智能、灵活、难度适中的游戏AI。 这意味着开发者需要针对游戏中可能出现的不同情况设计合理的AI行为逻辑,并通过角色的控制界面显示特定的游戏内行为。
传统上,业界在开发游戏 NPC 或 Bot 时采用规则驱动的方法(例如状态机、行为树或更复杂的实用系统,例如 GOAP\HTN)。 人类定义的条件将触发预先设计的游戏行为。 ,条件越多,行为越复杂,角色看起来就越聪明。 规则驱动系统的局限性也很明显,主要体现在两个方面:一是规则很难覆盖所有情况3D角色,设计出来的机器人性能会比较僵化; 其次,需要大量的人力来设计和实现复杂的AI行为逻辑。 。
以强化学习为代表的人工智能技术可以突破上述两个限制。 我们可以构建一个神经网络模型,将游戏状态作为输入创作人,角色控制动作作为输出。 通过训练,我们可以摆脱对人工设计的依赖,获得更智能的机器人。
强化学习是一种不依赖数据,在与特定环境交互中不断试错来发现解决给定任务的最优策略的人工智能方法。 与图像类别预测和机器翻译等深度学习任务不同,强化学习模型不需要提前准备数据。 模型会作为角色参与游戏,针对游戏中可能出现的各种情况(State)尝试不同的动作(Action),并根据游戏的反馈(Reward)调整动作策略,直到模型能够完美完成任务设计。 确定的任务。 得益于神经网络强大的泛化能力,强化学习模型不仅可以用来开发Bot和NPC,甚至可以处理像星际争霸这样每帧理论可选操作多达10^26个的复杂游戏。
另外游戏开发中的人工智能,对比下图游戏AI的开发流程我们可以看到,通过强化学习,游戏AI设计的人力成本变成了设计模型的人力成本和训练模型的机器成本。 因此,当所需的游戏AI足够复杂时,强化学习方法会更具成本效益。
保证游戏战斗系统的平衡性一直是游戏开发的难点之一。 例如,MOBA游戏加入新英雄后,游戏策划不仅要保证角色本身的技能和数值设计符合预期,还要保证角色与其他角色配合时不存在无法解决的套路。英雄,否则也会影响比赛。 竞争的公平性。 这个过程通常需要大量的人力来反复进行游戏测试和设计调整。
如上所述,强化学习可以通过在环境中不断试错来获得强大的游戏AI。 基于这种“不断试错”的特性,我们可以将强化学习模型转变为强大的自动化游戏测试工具。
具体来说,首先我们可以训练一个接近高端玩家水平的游戏AI,然后通过与其他现有角色的AI进行模拟战斗,可以在角色上线之前模拟真实的游戏数据,并使用这是为了调整角色。 设计并评估角色添加后对游戏平衡的影响。 同时,如果游戏环境存在漏洞,模型极有可能在大规模的探索尝试中发现并利用它们,间接帮助我们挖掘出隐藏较深或极端操作下触发的游戏bug。
另外,对于一些相对简单的游戏环节,比如MMORPG游戏中的小副本任务,利用搜索算法或者适量的人类玩家数据进行监督学习,也可以快速生成试跑机器人。
相信很多玩家都经历过被队友欺骗或者被对手彻底虐的经历。 通过AI匹配机制,我们可以准确评估玩家的等级,匹配等级相近的队友和对手,保证战斗的公平性,提高玩家的游戏体验。
与传统的 ELO 等方法相比,Trueskill2 可以结合先验信息(如装备购买状态、游戏经验值等)模型,让消息在整个模型中传播,不断修正对玩家等级的评估,并获得在几场比赛中准确估计玩家的水平。
在关卡匹配的基础上,玩家也可能有相应的社交需求。 我们可以利用AI算法来分析玩家的用户画像,然后进行相应的匹配,以满足玩家更高层次的追求。