收敛困难,调参困难。
DRL算法通常需要海量的Agent和环境的交互数据,而这些数据只有在模拟场景下(游戏)才很充足并且廉价,想象一下自动驾驶和机器人领域,如果拿真的汽车和机器人去做Action,万一是负奖赏的Action,那损失也太大点了。
奖赏函数需要定义的很准确,这其实很难。
最重要的是:很多应用,比较成熟的方法效果都不比DRL差,所以公司不愿意去冒这个风险吧。

Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐