登录社区云,与社区用户共同成长
邀请您加入社区
原理:不改变原始大模型参数,只加入一个类似残差分支,先降纬再升纬,因为模型是过参数化的,它们有更小的内在维度,模型主要依赖于这个低的内在维度(low intrinsic dimension)去做任务适配。优势:Lora的训练参数更少。
原理:不改变原始大模型参数,只加入一个类似残差分支,先降纬再升纬,因为模型是过参数化的,它们有更小的内在维度,模型主要依赖于这个低的内在维度(low intrinsic dimension)去做任务适配。 优势:Lora的训练参数更少。
https://www.jiqizhixin.com/articles/2024-03-20 https://www.zhihu.com/tardis/zm/art/623543497?source_id=1003
魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐
量化挑战赛冠军专访:4小时啃下W4A8量化,我靠的是这些经验
替你试过了,消费级显卡可以跑的开源文生图SOTA模型,顶级渲染、高密度文本绘图
「极限压缩 量化未来」Modelers GeekDay上海站圆满落幕
扫一扫分享内容
为遵守国家网络实名制规定,未绑定将限制内容发布与互动
所有评论(0)