将机器学习预测模型融入AI agent的尝试(二)

3. 将组件纳入AI agent

  • 将组件与应用结合在一起的时候,组件的外围会包裹一个LLM模型,也就是说组件的输入接受大模型的输入,组件的输出会输出到LLM,所以在组件内部结合大模型可能是不必要的,新版本的组件已经取消了LLM模型,组件的功能目前就很单纯,预测模型API,获得输入数据,得出预测结果。

  • 经测试,应用的LLM会知道预测模型需要哪些输入,这提示LLM可能是根据参数名称了解需要哪些输入,所以在参数起名的时候,尽量用全名,LLM还可以模拟输入数据,对于测试是很方便的,比如可以说“请模拟一组输入,进行测试。”

  • 理论上预测模型输出的应该是预测概率,而不是简单的结论,还需要结合DCA分析中的损害-效益比来确定决策阈值,两者结合最终得出结论,是给医生用的;如果是民间使用的话,在后续检查损害性不大的情况下,直接给出预测结论,让用户接受检查,并最终判断,或许是也是一种不错的选择。

  • 结合知识库组件,关于预测模型相关的知识或许可以放在知识库中供用户检索了解,目前仅“注意事项”。

  • 在结合治疗知识更专业的医疗小助手组件,可以更好地解读医疗专业知识。

  • 通过以下地址进行访问: 我在百度智能云千帆AppBuilder开发了一款AI原生应用,快来使用吧!「糖尿病的机器学习模型应用」:https://appbuilder.baidu.com/s/B90y9

总结

目前为止,我们基本将预测模型和AI agent结合在一起:预测模型的主体是通过API完成;搭配健康小助手提供相对专业的治疗建议;单配知识库,提供定制的使用预测模型的注意事项,欢迎大家体验。

Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐