杀戮尖塔吧 关注:194,534贴子:3,018,994

逆天尖塔攻略启发

只看楼主收藏回复

虽然这个好像没用,但是我认为杀戮尖塔是可以通过计算概率分布函数来至少解决战斗结束后拿牌最优解的
众所周知杀戮尖塔本质是数值游戏,就像图片中的观点一样,怪物强度F(t)是根据怪池(强怪,弱怪,精英)变化的,本身可以根据不同怪物和不同意图出现概率进行计算,而玩家的强度G(t)计算稍微更复杂一些,当然这里有必要假设除开药水和一切随机印牌,以及靠电球的机器人,每回合抽到的牌以及能够使用的费用是可以计算的,那么根据一手手牌,很容易能够得到当前手牌的最优解,及产生最大可用数值的方法,这里的可用数值是根据怪物意图决定的,敌人没有攻击意图的时候防御就是不可用数值,当然在有壁垒,残影这种跨回合防御收益或者肚皮这种攻防转换情况下也是可用数值,但是同样需要注意当前手牌的最优解不是本场战斗的全局最优解,就好像手上有一个零费战专多抽一张打击加了 5 数值但是把祭品过上来了,这回合数值高了一点但是对全局有害(这个例子有点不太恰当,在算法中,如果战专抽到祭品的概率需要计算,如果打出战专的收益期望大于不打战专的收益期望,那在概率计算上还是会选择打战专),或者少打一张攻击牌以及多开一个能力,能力牌的收益会反映到之后回合的数值上。局部最优解的判断在于数值大小,而全局最优解的判断应该在于战损大小和最简单的能不能过,在我的初步思考情况下单局战斗可以看作是根据稍微复杂的背包问题,用传统深度学习算法和其他模型应该都有解决的能力,在模型建立完成之后,掉落物奖励该抓那张牌,要不要选择跳过,对应结果的获胜概率应该都能被直观的计算出来,也许可以根据这个思路做一些新的爬塔辅助mod


IP属地:北京来自Android客户端1楼2024-03-13 01:14回复
    好像思路有点跑偏🥲如果目的是为了看到我拿某张卡的胜率的话,考虑当前最优解的意义不大,全局最优解的权重无限大,但是可以先根据当前最优解计算是否胜利和胜利战损,再接下来的循环中再逐步降低战损,并且尝试找到战损最低的世界线,如果迭代一定次数后没有找到战损最低的世界线,则停止并将战损期望和胜率写入结果中


    IP属地:北京来自Android客户端2楼2024-03-13 01:19
    回复
      确实,想了想战损的期望很重要,如果我一层拿了这张黑拥接下来每个房间期望战损都是 10 但是会赢,那我觉得应该还是不会拿,所以战损更应该作为依据


      IP属地:北京来自Android客户端3楼2024-03-13 01:21
      回复
        如果有闲得无聊的可以在下面讨论一下这个模型是否有可行性且能够在有理时间内解决,我先睡了


        IP属地:北京来自Android客户端4楼2024-03-13 01:22
        回复
          不懂,看大佬发挥


          IP属地:福建来自Android客户端6楼2024-03-13 01:49
          回复
            萌新今天早上课上开了一把a6的战士,发现打不过老头了,调了好几遍世界线也不行,就在想能不能有一个AI能够帮忙看能不能打得过,给舍友玩发现也过不了


            IP属地:福建来自Android客户端7楼2024-03-13 02:57
            回复
              那得先确定算法的输入输出。输出可以是成功率,全局中的每层战损;输入得包含所有信息,层数/血量/已出现过的怪物/遗物/事件/本层boss/当前卡组。这其中的难点是怎么把这么一大堆信息压缩成算法可理解的内容。其中受影响最大的当属战斗中药水的决策,同一瓶药水在不同层数、打过不同的怪物、拥有不同血量、使用不同卡组时收益是不同的,比如说留咔咔药还是荆棘药会涉及到卡组启动速度和上限、有没有打过三鸟、有没有鳞片遗物。中间的搜索算法怎么样其实都行,主要是前期对问题的抽象很难做。


              IP属地:北京来自Android客户端8楼2024-03-13 05:17
              收起回复
                感觉难度主要是工作量。如果用直播录像转化成输入的话,粗略想想就会涉及下载,标准化,关键帧查找,等等等等


                IP属地:江苏来自Android客户端9楼2024-03-13 06:08
                回复
                  关键是人在玩,人玩不能一眼就能看出函数的数据变化,你要是个小丑牌,能直接看倍率乘率也就算了,你这个还不如多打俩把提升一下理解


                  IP属地:广东来自Android客户端10楼2024-03-13 07:20
                  收起回复
                    强化学习了解一下?


                    IP属地:北京来自Android客户端11楼2024-03-13 08:17
                    收起回复
                      ls说得对,强化学习就行


                      IP属地:北京来自Android客户端12楼2024-03-13 09:31
                      回复
                        卡牌间的联动和配合怎么衡量,无限与非无限卡组怎么衡量,人物机制、药水、道具怎么衡量
                        起码解决这三个问题,抽象化的攻略才有实际意义
                        考虑到人力,整个ai跑跑可能确实有效


                        IP属地:湖北来自Android客户端13楼2024-03-13 10:21
                        收起回复
                          快进到ai爬塔,连胜轻松成功x3g和白猪pig


                          IP属地:广东来自iPhone客户端14楼2024-03-13 10:34
                          回复
                            如果ai爬塔做出来,机器学习恐成爬塔第一(不过这里的ml不是寄宝的卡就是了)


                            IP属地:广东来自iPhone客户端15楼2024-03-13 10:36
                            回复
                              哪里需要输入人物对局啊 这是当年alphazero的老办法 后来狗是把规则给ai让他自己进行一百万一千万局就是了 他会用他的方式完成你不一定理解得了的量化


                              IP属地:重庆来自iPhone客户端16楼2024-03-16 00:59
                              回复