亚马逊云科技-构建GenAI体验于SageMaker
亚马逊云科技-构建GenAI体验于SageMaker
亚马逊云科技-GenAI体验构建SageMaker上
关键字: [yt, Hugging Face, Generative Ai Models, Deep Learning Architectures, Large Language Models, Open-Source Generative Ai, Retrieval-Augmented Generation]
本文字数: 400, 阅读完需: 2 分钟
导读
菲利普来自Hugging Face公司,在”解锁Generative AI在亚马逊云科技上的力量”的演讲中,他阐述了Generative AI的历史和演进。他解释说,Generative AI代表了从传统深度学习模型向能够生成各种形式内容的模型的转变,如文本、图像和音乐。菲利普强调了Hugging Face与亚马逊云科技的合作,旨在简化在亚马逊云科技基础设施上部署和微调Generative AI模型的过程。他演示了一个实际案例,利用检索增强生成构建语义搜索,提高搜索准确性、生产力和决策能力,同时确保企业亚马逊云科技环境中的安全性和合规性。
演讲精华
以下是小编为您整理的本次演讲的精华,共100字,阅读时间大约是0分钟。
亲爱的朋友们,让我们一起来探索亚马逊云科技(亚马逊云科技)与Hugging Face的合作,在亚马逊云科技上构建SageMaker的生成式人工智能(Generative AI)体验。
在这个精彩的网络研讨会中,我们将回顾生成式AI和深度学习的历史,深入理解什么是生成式AI,欣赏一些出色的演示。然后,我们将学习如何在亚马逊云科技上使用Hugging Face的生成式AI,并深入探讨一个实际的示例。
首先,让我们回顾一下软件在2011年如何”吞噬世界”。当时,Netflix凭借其视频服务获得突破,Airbnb通过允许每个人将自己的家作为酒店而彻底改变了酒店业。软件无处不在,为我们日常使用的每一个设备提供动力。
六年后的2017年,RNN、LSTM和CNN等技术帮助我们创建了ResNet和AlexNet等模型。当时,英伟达CEO黄仁勋预测,深度学习将通过采用AI优先的方法,利用机器学习模型自动化复杂的链条,从而改变我们开发软件的方式。
再过六年,到了今天,我们看到生成式AI正在”吞噬”深度学习。两年前,我们还在大量使用CNN、RNN和LSTM等架构,但随后Transformer架构的引入,成为所有深度学习解决方案的默认架构,适用于所有模态。现在,随着生成式AI和大型语言模型(LLM)的出现,我们每周都能看到新的LLM和生成式AI模型打破任何模态、任何机器学习任务的基准。这种发展势头势不可挡,我们每周都能看到新的模型、新的用例和更好的性能。
但是,生成式AI到底是什么呢?让我们听听一些知名的AI研究人员是怎么说的。AlexNet的创建者Alex Krizhevsky说:“生成模型代表了人工智能的下一个阶段,机器不仅能进行简单的模式识别,还能创造全新独特的内容。”生成对抗网络(GAN)的创建者Ian Goodfellow说:“生成模型是实现机器创造力的关键,允许机器超越它们所见过的内容,创造全新的东西。”卷积神经网络(CNN)的创建者Yann LeCun说:“生成模型允许机器从数据中学习,然后创造新的原创内容,它们有可能彻底改变音乐和时尚等行业。”
简而言之,我们知道生成式AI可以生成新数据,超越简单的模式识别,以一种真正开放的方式。我们知道,生成式AI是训练用于生成文本、图像、音乐等新内容的神经网络,不限于单一模态。它们是在现有数据上训练的,学习如何通过生成类似的模式和结构来创建新数据。生成的输出可用于各种应用,如生成图像、生成文本,甚至现在可以生成音乐。我们还知道,负责任地使用生成式AI模型至关重要,因为它们有可能创造有害、有毒或带有偏见的内容。当然,我们也知道大型语言模型是生成式AI的一个子集。
让我们仔细看看自2020年GPT-3发布以来,LLM或生成式AI在这一领域的发展进程。我们可以看到一张由”大型语言模型调查”创建的视觉图,包括自GPT-3发布以来直到2023年第一季度发布的所有LLM。我们可以清楚地看到,大型语言模型的创建速度和加速度都在飞速增长。现在,我们几乎每个季度都有6到7个新模型发布,这真是令人惊讶。但不利的一面是,并非所有这些模型都是开源的,甚至都无法访问。例如,GPT-4是一个封闭源码的LLM,只能通过API有限访问。但也有一些模型,如DeepMind的Gopher,根本无法访问,这使得继续投资改进自GPT-3以来取得的所有进展变得困难。
对于Hugging Face来说,研究封闭源码LLM的风险也是非常重要的。封闭源码LLM是指只能通过API访问的LLM,这意味着你可能不知道它真正做了什么。它基本上是一个黑箱解决方案。我们发送数据,得到预测结果。最大的风险在于缺乏透明度。我们不知道它是一个模型还是多个模型。我们不知道用于训练的数据是什么,也不知道提供商如何使用我们的数据,是否将其用于进一步训练模型或检查不同的模型行为。我们也不知道,如果提供商进行更新会发生什么。我们知道,在常规软件开发中,软件需要更新和改进,但同时也要考虑保持软件向后兼容性。对于模型来说,这是一个大问题,因为当你不知道模型提供商在做什么时,你怎么能确保你今天在生产应用程序中使用的输入在将来模型提供商进行更新时仍能产生相同的输出或产生相同的影响呢?
然而,尽管封闭源码语言模型存在潜在风险,但生成式AI也带来了巨大的优势。在幻灯片上,你可以看到我们现在只需要5行Python代码就能生成逼真的图像。这段代码片段使用了Hugging Face Diffusers库,通过from_pretrained方法轻松加载模型。然后,我们有一个提示,定义我们想要生成的图像应该是什么样子,调用我们的管道并传入提示,最后保存我们的图像。
除了聊天之外,可能最知名的示例就是代码生成了。我相信你们中的每个人都见过或使用过Copilot或CodeWhisperer来提高工作效率,在编写应用程序时获取代码建议。自上周以来,我们有了一个开源的替代方案StarCoder,这是由BigCode组织创建的开源可访问模型,这意味着你可以对其进行微调以适应你的特定领域数据和框架。这为企业在内部部署经过微调的代码助手模型,针对内部框架和代码最佳实践进行微调,开启了许多新的有趣用例。
我们都看到了这些很酷的演示,但是我们如何自己构建生成式应用程序呢?我们正在与亚马逊云科技合作,在亚马逊云科技上构建解决方案,释放生成式AI的力量。我们使得从Hugging Face Hub部署任何预训练模型到亚马逊云科技、在您自己的数据上训练自己的模型,或者部署已经预训练和微调过的模型到端点,在安全的环境中集成到应用程序中,变得非常简单。
我们正在将Hugging Face融入亚马逊云科技的各个层面。通过Amazon Marketplace,我们提供咨询服务以及托管解决方案。与Amazon SageMaker团队合作,我们创建了专门的深度学习容器和工具包,简化了生成式AI模型的训练和部署流程。此外,我们正在与Amazon Web Services Accelerator团队携手,将生成式AI模型的最佳性能引入Amazon Inferentia和Trainium。结合Amazon Web Services ML基础设施和Hugging Face生态系统的力量,我们使亚马逊云科技成为使用生成式AI模型的理想之地。
对于企业而言,确保数据不会离开其安全环境,并能够在自身的亚马逊云科技账户内部署整个解决方案至关重要,这正是现在使用开源生成式AI模型所能实现的。我们拥有一个摄取管道,允许生成或创建知识数据库,并提供API和应用程序,让用户通过向LLM提出自然语言问题来访问知识数据库。这个过程被称为”检索增强生成”,它是一种从语言模型外部检索相关数据的方法,利用上下文增强提示,将查询、搜索查询和检索到的文档提供给LLM,从而改进搜索结果并直接回答问题。
因此,检索增强生成由两个主要组件组成。一个是存储所有数据、文档和知识的数据存储;另一个是包括检索模型和LLM的查询引擎。检索模型将传入的请求和文档编码为嵌入,这些嵌入随后用于查询数据存储以找到相似的文档和嵌入。然后,这些相似的文档被提供到LLM提示中,用于生成响应并返回给用户。
使用检索增强搜索可以提高搜索准确性,因为我们将生成式AI与知识检索相结合,从而提供更准确、更相关的搜索结果。我们基本上避免了ChatGPT胡言乱语的情况,因为我们只为模型提供了它可以用来回答问题的上下文。RAG可以生成更加针对用户搜索查询的响应。我们当然也提高了生产力和决策效率,因为用户现在可以针对特定问题进行搜索,并利用LLM的力量更快、更高效地获得答复。而且,由于它完全部署在您的亚马逊云科技账户内,我们确保了安全性和合规性作为首要原则,并利用亚马逊云科技的所有优势符合GDPR或HIPAA等法规。
目前,我们看到的是知识摄取管道,它负责创建用于回答查询的知识数据库。首先,我们有一个API和一个S3存储桶,可用于摄取文档。一旦用户将文档上传到S3存储桶或通过API请求将文档发送到Lambda函数,Lambda函数将调用SageMaker上的嵌入模型来创建这些文档嵌入,然后将它们存储在Amazon OpenSearch中。值得一提的是,我们不需要只创建一个索引,这意味着我们可以为不同的部门创建不同的索引。
一旦数据存储就绪,我们就可以创建检索增强生成。这意味着我们有不同的客户端(移动或桌面),用户可以在其中提出查询。查询被嵌入模型编码,然后从OpenSearch数据库中检索,试图找到最接近的文档,然后我们创建这个检索增强提示,并将其输入到LLM中。随后,LLM生成答案,由于我们使用了检索增强过程,我们还能提供答案来源的原始出处。最后,LLM或Lambda函数将返回答案以及来源。
总结
生成式人工智能(Generative AI)的迅速发展,得益于Transformer和大型语言模型(LLM)等技术的进步,开启了机器创造力和开放式内容生成的新时代。这项技术使机器能够超越简单的模式识别,在文本、图像、音乐和代码等各种形式上创造真正新颖的内容。然而,封闭源代码的LLM增加引发了人们对透明度、数据隐私和向后兼容性的关注。
Hugging Face与亚马逊云科技(亚马逊云科技)的合作,通过提供开源替代方案和与亚马逊云科技服务的无缝集成,释放了生成式人工智能的力量。这种合作关系使企业能够在亚马逊云科技环境中安全地利用生成式人工智能模型,确保数据合规性并遵守监管标准。一个引人注目的应用是由生成式人工智能驱动的语义搜索,它结合了知识检索和LLM,提供准确和与上下文相关的搜索结果。
支持这一解决方案的检索增强生成架构包括一个用于摄取和索引文档的数据存储,以及一个具有检索模型和LLM的查询引擎。用户查询被编码为嵌入向量,与索引的文档进行匹配,相关的上下文被输入到LLM中以生成精确和定制的响应。这种方法提高了搜索准确性、生产力和决策能力,同时在亚马逊云科技生态系统内保持数据安全性和合规性。
随着生成式人工智能的不断发展,Hugging Face和亚马逊云科技的合作使企业能够以负责任的方式利用其潜力,开启机器创造力的新前景,同时坚持道德原则和数据隐私标准。
亚马逊云科技(Amazon Web Services)是全球云计算的开创者和引领者。提供200多类广泛而深入的云服务,服务全球245个国家和地区的数百万客户。亚马逊云科技致力于成为企业构建和应用生成式AI的首选,通过生成式AI技术栈,提供用于模型训练和推理的基础设施服务、构建生成式AI应用的大模型等工具、以及开箱即用的生成式AI应用。深耕本地、链接全球 – 在中国,亚马逊云科技通过安全、稳定、可信赖的云服务,助力中国企业加速数字化转型和创新,并深度参与全球化市场。
魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐

所有评论(0)