【课程笔记】华为 HCIA-AI Solution 人工智能01:人工智能概览与发展趋势
(1) 输入输出侧:提示注入(直接提示注入、系统提示泄露、模拟对话、对立相应)、不安全输出、Overreeliance。(3) 模型及服务端:训练数据投毒、过度代理、敏感数据披露、供应链漏洞、不安全插件设计。(1) 语言(Verbal/Linguistic):用词的思考,如何表达复杂的含义。(5) 音乐(Musical/Rhythmic):对环境中的非语言声音感知。(3) 空间(Visual/Sp
人工智能概览与发展趋势
目录
一、人工智能与大模型发展历程
1. 何为智能
Howard Gardner教授提出多元智能理论,他指出了体现多元智能的八种能力:
(1) 语言(Verbal/Linguistic):用词的思考,如何表达复杂的含义
(2) 逻辑(Logical/Mathematical):对逻辑关系的思维表达
(3) 空间(Visual/Spatical):对视觉世界的准确感知
(4) 肢体动觉(Bodily/Kinesthetic):如何利用身体交流和解决问题
(5) 音乐(Musical/Rhythmic):对环境中的非语言声音感知
(6) 人际(Inter-personal/Social):对他人情绪进行察觉
(7) 内省(Intra-personal/Introspective):对自我的认知
(8) 自然(Naturalist):对自然各种形态的洞察
2. AI、机器学习、深度学习
人工智能:一门新的技术科学
机器学习:研究与模拟人类的学习行为
深度学习:源于人工神经网络的研究,是机器学习研究中的一个领域
3. 人工智能的主要学派
(1) 符号主义:将智能转换为符号,并利用计算机进行实现
符号主义认为人工智能源于数理逻辑。他们认为人类的认知基元是符号,人类认知的过程是各种符号进行推理运算的过程,认为人是一个物理符号系统,计算机也是一个物理符号系统,因此,可以用计算机来模拟人的智能行为
专家系统的开发与应用落地
(2) 连接主义:由大量的简单单元通过复杂连接后并行运行的结果
连接主义认为人工智能源于仿生学,特别是对人脑模型的研究。他们认为人类的思维基元是神经元,而不是符号处理过程。从神经元开始进而研究神经网络模型和脑模型
连接主义的代表性成果是在1943年创立的脑模型即MP模型。20世纪70~80年代受限于生物原型和软硬件技术限制人们对脑模型的研究一度陷入低潮。直到有专家提出用硬件模拟神经网络后,连接主义才又重新抬头
随着人工神经网络(ANN)的复杂性和规模的提升带来了许多可解释性问题
(3) 行为主义:基于“感知-行动”行为的智能模拟方法
行为主义认为人工智能源于控制论。他们认为智能取决于感知和行动。认为智能不需要知识、不需要表示、不需要推理。人工智能以像人类智能一样逐步进化。智能行为只在现实世界中与周围环境交互作用而表现出来
行为主义在早期工作中主要是模拟人在控制过程中的智能行为和作用。到20世纪80年代诞生了智能控制和智能机器人系统
4. 人工智能的分类
(1) 弱人工智能
弱人工智能是指不能制造出真正地推理和解决问题的智能机器,这些机器只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识
(2) 强人工智能
强人工智能观点认为有可能制造出真正能推理和解决问题的智能机器,并且,这样的机器将被认为是有知觉的,有自我意识的。可以独立思考问题并制定解决问题的最优方案,有自己的价值观和世界观体系。有和生物一样的各种本能,比如生存和安全需求。在某种意义上可以看作一种新的文明
5. 人工智能三要素
(1) 数据:多样性、量级、质量
(2) 算法:实现人工智能的根本途径
(3) 算力:为人工智能提供了基本的计算能力支撑
为实现智能社会,我们需要将AI与云计算、大数据和物联网等结合
6. 大模型大在哪里
(1) 参数量与模型复杂度:拥有更强的学习与泛化能力
①相比于普通的神经网络,大模型通常由数亿甚至数百亿个参数组成,这使得它们能够处理更大规模、更复杂的数据集,并拟合更为复杂的函数
②由于大模型具有更多的参数和更复杂的结构,它们能够更好地学习和拟合数据中的规律和模式,从而具有更强的学习能力和泛化能力
③模型规模大到一定程度后突然涌现很多高阶能力
(2) 数据集:包含足够的样本
①大模型通常需要大量的数据来进行训练,以便捕获到各种可能的模式和特征。因此,训练数据集应该包含足够的样本,以覆盖模型可能遇到的各种情况
(3) 算力:需要庞大的算力基座
①大模型训练所需的算力非常庞大,通常需要分布式计算、高性能计算中心和云计算服务等支持
7. 涌现带来的能力
涌现是一种现象,为许多小实体交互作用后产生了大实体,而这个大实体展现了组成它的小实体所不具有的特征
在大模型领域指当模型突破某个规模时,性能显著提升,表现出让人惊艳、意想不到的能力。比如语言理解能力、生成能力、逻辑推理能力等
(1) 语境能力:根据自然语言描述指令输出预期结果
(2) 指令遵循(让AI像人一样听懂你的要求,并乖乖照做):大大提高模型泛化能力
(3) 逐步推理(让AI把解题的“脑子里的步骤”一步步写出来给你看):思维链CoT
8. 思维链的作用
思维链(CoT)是一种改进的提示策略,用于提高LLM(大模型)在复杂推理任务中的性能,如算术推理、常识推理和符号推理。CoT没有像In-Context Learning(上下文学习,看例子模仿)那样简单地用输入输出对构建提示,而是结合了中间推理步骤,这些步骤可以将最终输出引入提示(把中间推理步骤塞给它,逼它一步步想清楚再回答)
(1) 把一个复杂问题拆解成多个步骤
(2) 提供了一个观察模型如何犯错的窗口
(3) 可以用在一些数理问题上,就也可以用在人可以通过语言解决的问题上
(4) 支持任何语言模型使用,节省重新训练模型的功夫(主要体现在CoT能直接给新的模型一张解题流程图,而不需要送它回炉重造,花费大量时间从零开始学习。同时这张解题流程图无论旧模型还是新模型,只要它能读文字,就能给它喂CoT提示词)
9. 思维链好处
(1) 增强了大模型的推理能力
(2) 增强了大模型的可解释性
(3) 增强了大模型的可控性
(4) 增强了大模型的灵活性
思维链的限制:思维链只是在一些有限的领域效果较好,如数学逻辑推理能力,其他领域提升较小;同时需要模型足够大
二、人工智能领域
1. 发展趋势
可靠可控
与社会各方面深入融合
2. 发展前景
推动了应用场景的深度发展
人工智能保持稳健增长
三、DeepSeek概览及其产业影响
1. DeepSeek对AI产业的影响
(1) 冲击现有AI产业格局
①挑战巨头垄断地位
②引发行业竞争加剧
(2) 推动AI技术发展变革
①开源促进技术共享与创新
②改变AI发展思路
(3) 拓展AI应用场景与市场
①满足多样化应用需求
②降低应用开发门槛
(4) 对算力产生影响
①推理算力重要性提升
②国产算力发展带来机遇
2. DeepSeek对AI产业发展的启示
(1) 创新是AI发展的核心驱动力:算法创新、应用创新
(2) 开源合作是AI产业发展的重要模式:技术共享与协同创新、降低研发成本与风险
(3) 人才培养是AI产业发展的基础保障:重视AI人才的培养,营造良好的人才发展环境
四、华为人工智能发展战略
1. 华为全栈全场景AI解决方案

(1) 全栈:硬件、计算架构、AI框架、应用使能
①应用使能:提供全流程服务
②AI框架:支持端、边、云独立和协同的统一训练和推理框架
③异构计算架构:芯片算子库、自动化算子开发工具
④硬件:基于Ascend系列AI处理器,有丰富的产品形态
(2) 全场景:端、边、云
2. CAAN
(1) 特性:架构开放、极致性能、极简易用
(2) 开发场景:图开发AIR(原始模型经过AIR优化通过合并步骤/删冗余的方式生成昇腾芯片专用加速模型)、算子开发AscendC(当现成计算模块不够用时,通过直接调用芯片底层指令,用C++方言AscendC写定制化计算单元)、应用开发ACL(不碰模型/算子,直接用ACL接口命令芯片干活)
异构计算架构CANN本质上是AI框架和AI硬件之间的“中间层”
①对上:用统一接口支持多种AI框架(MindSpore/TensorFlow等),用户不改代码就能让模型跑在昇腾芯片上
②对下:屏蔽不同代芯片的差异,开发者不用每次换硬件重写程序
异构计算架构CANN是华为给自家昇腾AI芯片配的“翻译官 + 加速器 + 省事工具”
①翻译官:让TensorFlow、PyTorch等AI框架写的代码,不用改就能直接跑在昇腾芯片上
②加速器: 用“图编译器”自动优化计算步骤(比如把多个小计算合并成一个大步骤),让AI模型跑得更快
③省事工具:自带1400+预装算子(现成计算模块),开发者不用重复造轮子,直接调用就能开发AI应用
3. MindSpore
(1) 分布式训练原生:快速实现高性能的大模型分布式训练
(2) AI4S融合框架:AI+HPC(高性能计算)
(3) 硬件的潜能极致发挥
(4) 全场景快速部署
| 对比项 | MindSpore(工具箱) |
ModelArts(全自动工厂) |
|---|---|---|
| 核心身份 | 深度学习框架 | AI开发云平台 |
| 主要功能 | 写代码训练模型,支持GPU/NPU/CPU | 从数据清洗->训练->部署全流程托管 |
| 使用门槛 | 需懂编程,手动调参 | 零代码(自动学习) 低代码(拖拽式开发) |
| 硬件依赖 | 本地需有GPU/NPU,或自己搭云环境 | 直接用华为云算力(昇腾/GPU)免装驱动 |
| 训练一个猫狗识别模型 | 1.手写Python代码定义神经网络 2.本地调试报错 3.租云服务器安装环境->跑通 |
1.上传猫狗突破到云存储 2.点“自动学习”按钮 3.系统自动训练+生成模型 -> 一键部署 |
在 ModelArts 里可直接调用 MindSpore 框架写代码
用 MindSpore 写的模型,可上传到 ModelArts 部署到手机/摄像头
4. ModelArts
ModelArts是面向开发者的一站式AI开发平台,为机器学习与深度学习提供海量数据预处理及交互式智能标注、大规模分布式训练、自动化模型生成,及端-边-云模型按需部署能力,帮助用户快速创建和部署模型,管理全周期AI工作流
-> ModelArts是华为云的“AI 工厂流水线”,从原料(数据)到产品(模型部署)全包办
①处理数据:自动清洗/标注海量数据(不用手标数据,AI帮你标)
②训练模型:一键调用百个GPU/昇腾芯片,暴力训练模型(不怕算力不够,按需租用)
③生成模型:自动试错调参,输出最优参数(不用人工调参折腾)
④部署模型:把训练好的模型塞进手机/摄像头/云服务器(写一次代码,到处都能用)
(1) AI高效开发:端到端模型生产线与监控工具、高效迭代模型、接入AI Gallery(是华为云的“AI 模型商店”,像手机里的应用商店一样,但卖的是现成的 AI 模型和工具)
(2) AI高效运行:提供AI加速套件、高性价比的昇腾算力、支持大规模异构集群调度与管理
(3) AI高效迁移:提供全流程的昇腾迁移工具链
5. 昇腾应用使能MindX
MindX SDK(行业应用开发套件):视觉分析、特征检索、搜索推荐、知识增强
MindX Edge(智能边缘使能):边云协同、设备管理
五、人工智能的争议和未来
1. 大模型安全
(1) 输入输出侧
①提示注入(直接提示注入、系统提示泄露、模拟对话、对立相应):通过提示词迫使LLM回答受限制问题
②不安全输出:当插件或应用程序接受LLM输出时,如果缺少安全控制就可能导致XSS(跨站脚本攻击 -> 在奶茶里下毒)、CSRF(跨站请求伪造 -> 伪造你的签名开支票)、SSRF(服务端请求伪造 -> 骗保安打开保险库)、远程代码执行,并可能启用代理劫持攻击
③Overreeliance:过度依赖LLM生成内容,在没有人为监督的情况下可能会出现有害结果(AI输出的答案必须经过人工审核)
(2) 传输侧
①Model Denial of Service(模型拒绝服务):攻击者以特别消耗资源的方式与LLM交互,导致他们和其他用户的服务质量下降,或产生高资源成本
②数据泄露/模型窃取:通过LLM的恢复意外泄露敏感信息、专有算法或其他机密细节
(3) 模型及服务端
①训练数据投毒:大型语言模型(LLM)使用不同的原始文本来学习和生成输出。攻击者引入漏洞的训练数据中毒可能会破坏模型,使用户接触到不正确的信息
②过度代理:当LLM与其他系统接口时,不受限制的代理可能会导致不良的操作(AI权限过大,AI乱调用工具,AI越权访问等)
③敏感数据披露:在其回复中泄露机密信息,从而导致未经授权的数据访问、隐私侵犯和安全漏洞
④供应链漏洞:LLM中的供应链可能容易受到攻击,影响训练数据、ML模型、部署平台的完整性,并导致有偏见的结果、安全漏洞或完整的系统故障(AI的全链路都可能被投毒)
⑤不安全插件设计:如果将LLM连接到外部资源的插件接受自由格式的文本输入,则可能会被利用,从而启用可能导致不良行为或远程代码执行的恶意请求
2. 数据隐私
(1) 隐私泄露:
①训练数据泄露:大模型通常需要大量的数据进行训练,这些数据可能包含敏感个人信息。如果训练数据管理不当,可能会导致个人隐私信息的泄露
②模型输出泄露:大模型在生成内容时,可能会无意中泄露输入数据中的敏感信息。例如,生成文本可能会包含训练数据中的个人信息
③模型接口安全风险:如果大模型的接口安全性不足,可能会被黑客利用,通过接口获取敏感信息
④模型泄露风险:如果大模型的参数或训练算法被泄露,可能会被恶意使用,例如用于生成虚假信息或破坏性攻击
(2) 隐私保护:
①数据保护:采用差分隐私(个体隐匿于群体 -> 把“年薪50万”改成“48~52万”,不透露任何人具体收入)、同态加密(数据可用不可见 -> 数据加密成密文后,仍能直接计算)等技术来保护训练数据和用户数据的隐私;在模型训练和推理工程中使用联邦学习(原始数据不出本地 -> 医院A/B/C各用自己的患者数据训练模型,只共享模型参数,原始数据不出门)等方法,减少数据共享的风险;数据脱敏(直接删除敏感标识 -> 快递单隐去手机号后4位)
②建立实时检测系统
③定期对大模型安全评估
3. 模型稳定性与鲁棒性
(1) 稳定性:指模型在遇到意外输入或攻击时保持正常运行的能力
(2) 鲁棒性:指模型在面对干扰或错误数据时仍能产生准确输出的能力
(3) 提升模型稳定性:对抗训练(反复投毒 -> AI纠错 -> 模型稳定性飙升)、定期对模型审计、模型启动和配置过程安全
4. 大模型的技术趋势
(1) 人类反馈强化学习(RLHF)
RLHF,人类反馈强化学习。这种训练方法将强化学习与人类反馈相结合,通过人类的反馈来优化模型的训练
RLHF在训练过程中,以人类的偏好作为奖励信号,指导模型的行为,使得模型能够更快地学习到有效的策略,并更好地捕捉复杂的人类偏好,从而优化模型性能
通过RLHF,模型能够更好地理解并满足人类的意图。通过人类的反馈,可以指导模型避免学习有害或不适当的行为,从而提高模型的安全性和可靠性。使模型输出更加复合人类的期望
RLHF = “AI当实习生(预训练,但经常瞎答问题),人类当导师(盯着AI干活,实时反馈),干得好给糖(答对了奖励),干不好抽鞭子(打错了惩罚)!” -> 最终输出安全、有用、人话版答案
(2) 多模态融合
大模型不再局限于单一的模态,如图像、文本或语音,而是开始实现多模态的融合,即能够处理和生成多种类型的数据。将显著提升AI模型的效果、通用性及泛化性,使模型能够更准确地捕捉和表达复杂的只是和信息
(3) 规模与复杂度
随着计算能力的增强和算法的进步,未来大模型的规模可能会进一步扩大,模型复杂度也会增加,以处理更复杂的任务和数据类型。通过基于海量数据进行自监督学习,使用统一的模型和范式解决各类AI任务
(4) 轻量化
为了使大模型能够在资源受限的设备上运行,模型压缩和迁移学习技术将继续得到发展,以减少模型的大小并提高其迁移能力
大模型的轻量化是指通过一系列技术手段,在保证模型精度的情况下,减少模型的复杂度、降低计算资源需求,从而提高模型的加载速度、减少内存占用,并降低网络传输成本,使得模型更容易部署和应用
(5) 大小模型协同
未来的AI系统可能会采用大模型与小模型协同工作的方式。小模型可以作为样本价值判断模型(让小模型通过比较大小模型的预测差异,筛选出那些大模型尚未掌握的高价值样本,供大模型重点学习 -> 小模型参数量少、结构简单,学习能力有限,因此倾向于优先掌握数据中的核心规律,而非复杂噪声),帮助大模型快速学习;同时,大模型的能力也可以传递给小模型,实现两者之间的联动和互助。这种协同工作方式将提高AI系统的效率和性能
(6) 具身智能
具身智能是指能够理解、推理并与物理世界交互的通用智能体。具身智能体通常具有多模态感知认知能力,能够通过视觉、听觉、触觉等多种感官获取外界信息,并通过物理动作与环境交互。这种智能体能够在其所在环境中学习和适应,执行复杂的任务,并表现出类似人类的智能行为
具身智能就是“有身体的人工智能”,能像人一样用眼睛看、用手操作、用身体与环境互动,并从中学习完成任务
魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐

所有评论(0)