From 0285525890b47e305160481bb9d564f98b13b8f8 Mon Sep 17 00:00:00 2001 From: John A Date: Fri, 1 Dec 2023 12:00:03 +0200 Subject: [PATCH] use full width parenthesis in chinese content --- 00-course-setup/translations/cn/README.md | 2 +- .../translations/cn/README.md | 10 ++-- .../translations/cn/README.md | 28 +++++----- .../translations/cn/README.md | 8 +-- .../translations/cn/README.md | 54 +++++++++---------- .../translations/cn/README.md | 6 +-- .../translations/cn/README.md | 8 +-- .../translations/cn/README.md | 2 +- .../translations/cn/README.md | 2 +- .../translations/cn/README.md | 6 +-- .../translations/cn/README.md | 4 +- .../translations/cn/README.md | 6 +-- 12 files changed, 68 insertions(+), 68 deletions(-) diff --git a/00-course-setup/translations/cn/README.md b/00-course-setup/translations/cn/README.md index b4a216000..5ea2b73e5 100644 --- a/00-course-setup/translations/cn/README.md +++ b/00-course-setup/translations/cn/README.md @@ -96,7 +96,7 @@ jupyterhub 重要提示:翻译此存储库中的文本时,请确保不使用机器翻译。 我们将通过社区验证翻译,因此请用您熟悉的语言进行翻译。 -当您提交拉取请求时,CLA-bot 将自动确定您是否需要提供 CLA 并适当地描述 PR(例如标签、评论) 。 只需按照机器人提供的说明进行操作即可。 您只需使用我们的 CLA 在所有存储库中执行一次此操作。 +当您提交拉取请求时,CLA-bot 将自动确定您是否需要提供 CLA 并适当地描述 PR(例如标签、评论)。 只需按照机器人提供的说明进行操作即可。 您只需使用我们的 CLA 在所有存储库中执行一次此操作。 该项目采用了微软开源行为准则。 有关更多信息,请阅读行为准则常见问题解答,或联系 [电子邮件 opencode](opencode@microsoft.com) 提出任何其他问题或意见。 diff --git a/01-introduction-to-genai/translations/cn/README.md b/01-introduction-to-genai/translations/cn/README.md index 4c325f296..eda2b5191 100644 --- a/01-introduction-to-genai/translations/cn/README.md +++ b/01-introduction-to-genai/translations/cn/README.md @@ -51,9 +51,9 @@ ### 神经网络和现代虚拟助手的出现 -近年来,硬件技术的发展能够处理更大量的数据和更复杂的计算,让人工智能领域的研究得以加速,从而导致了更先进的机器学习算法(称为神经网络或深度学习算法) 的发展。 +近年来,硬件技术的发展能够处理更大量的数据和更复杂的计算,让人工智能领域的研究得以加速,从而导致了更先进的机器学习算法(称为神经网络或深度学习算法)的发展。 -神经网络(特别是循环神经网络 - RNN) 显着增强了自然语言处理领域的应用,能够以更有意义的方式表示文本含义,并重视句子中单词的上下文之间的联系。 +神经网络(特别是循环神经网络 - RNN)显着增强了自然语言处理领域的应用,能够以更有意义的方式表示文本含义,并重视句子中单词的上下文之间的联系。 这项技术为新世纪第一个十年诞生的虚拟助手提供了动力,它们非常精通解释人类语言、识别需求并执行满足需求的操作,例如使用预定义的脚本进行回答或使用第三方服务。 @@ -69,13 +69,13 @@ ## LLMs 如何工作? -在下一章中,我们将探索不同类型的生成式 AI 模型,但现在让我们看看大型语言模型是如何工作的,重点是 OpenAI GPT(生成式预训练 Transformer) 模型。 +在下一章中,我们将探索不同类型的生成式 AI 模型,但现在让我们看看大型语言模型是如何工作的,重点是 OpenAI GPT(生成式预训练 Transformer)模型。 * **分词器,文本到数字**:大型语言模型接收文本作为输入并生成文本作为输出。 然而,作为统计模型,它们对数字的处理效果对比起文本序列的处理效果要好得多。 这就是为什么模型的每个输入在被核心模型使用之前都由分词器处理。 标记是一段文本——由可变数量的字符组成,因此标记器的主要任务是将输入分割成标记数组。 然后,每个令牌都映射有一个令牌索引,该索引是原始文本块的整数编码。 ![Example of tokenization](../../images/tokenizer-example.png?WT.mc_id=academic-105485-koreyst) -* **预测输出标记**:给定 n 个标记作为输入(最大 n 因模型而异) ,模型能够预测一个标记作为输出。 然后,该标记会以扩展窗口模式合并到下一次迭代的输入中,从而获得一个(或多个) 句子作为答案,生成结果有更好的用户体验。 这解释了为什么如果您曾经使用过 ChatGPT,您可能会注意到有时它在生成结果时在句子中间出现停顿。 +* **预测输出标记**:给定 n 个标记作为输入(最大 n 因模型而异),模型能够预测一个标记作为输出。 然后,该标记会以扩展窗口模式合并到下一次迭代的输入中,从而获得一个(或多个)句子作为答案,生成结果有更好的用户体验。 这解释了为什么如果您曾经使用过 ChatGPT,您可能会注意到有时它在生成结果时在句子中间出现停顿。 * **选择过程,概率分布**:模型根据其在当前文本序列之后出现的概率来选择输出标记。 这是因为该模型预测了根据其训练计算出的所有可能的“下一个标记”的概率分布。 然而,并不总是从结果分布中选择概率最高的标记。 这种选择增加了一定程度的随机性,模型以非确定性方式运行——对于相同的输入,我们不会得到完全相同的输出。 添加这种程度的随机性是为了模拟人类创造性思维的过程,您可以使用称为温度的模型参数进行调整。 @@ -117,7 +117,7 @@ ## 任务 -你的任务是阅读更多关于生成式人工智能(https://en.wikipedia.org/wiki/Generative_artificial_intelligence) 的内容,并尝试找出一个你现在可以添加生成式人工智能但目前还没有的领域。 与用“旧式方法”做有什么不同,你能做一些你以前做不到的事情吗,或者生成的时候速度更快吗? 写一篇 300 字的摘要,描述您梦想的人工智能初创公司的样子,包括“问题”、“我将如何使用人工智能”、“影响”等标题,还可以选择做一份商业计划。 +你的任务是阅读更多关于生成式人工智能(https://en.wikipedia.org/wiki/Generative_artificial_intelligence)的内容,并尝试找出一个你现在可以添加生成式人工智能但目前还没有的领域。 与用“旧式方法”做有什么不同,你能做一些你以前做不到的事情吗,或者生成的时候速度更快吗? 写一篇 300 字的摘要,描述您梦想的人工智能初创公司的样子,包括“问题”、“我将如何使用人工智能”、“影响”等标题,还可以选择做一份商业计划。 如果您完成了此任务,您甚至可以准备好申请 Microsoft 的创业孵化器[Microsoft for Startups Founders Hub](https://www.microsoft.com/startups?WT.mc_id=academic-105485-koreyst),我们为您提供 Azure 和 OpenAIc redits 以及相关指导等等 diff --git a/02-exploring-and-comparing-different-llms/translations/cn/README.md b/02-exploring-and-comparing-different-llms/translations/cn/README.md index 5119cc53d..b8d003596 100644 --- a/02-exploring-and-comparing-different-llms/translations/cn/README.md +++ b/02-exploring-and-comparing-different-llms/translations/cn/README.md @@ -4,7 +4,7 @@ > *点击该图片看本章导学视频* -在上一章中,我们了解了生成式人工智能如何改变技术格局、LLMs 工作原理,以及企业(例如“Our startup”) 如何将它们应用到自己的应用场景中并得到发展! 在本章中,我们将比较和对比不同类型的大型语言模型以了解它们的优缺点。 +在上一章中,我们了解了生成式人工智能如何改变技术格局、LLMs 工作原理,以及企业(例如“Our startup”)如何将它们应用到自己的应用场景中并得到发展! 在本章中,我们将比较和对比不同类型的大型语言模型以了解它们的优缺点。 我们初创公司技术旅程的下一步是 LLMs 的前景并了解哪些适合我们的案例 @@ -32,7 +32,7 @@ LLM 模型有许多不同类型,您选择的模型取决于您的用途、您 根据您是否打算使用模型进行文本、音频、视频、图像生成等,您可能会选择不同类型的模型。 -- **音频和语音识别**。 为此,Whisper 模型是一个不错的选择,因为它们是通常用于语音识别。 它经过不同音频数据的训练,可以执行多语言语音识别。 例如,您可以使用所有的模型,从价格便宜但功能强大的模型(如 Curry) 到更昂贵拥有高性能的达芬奇(Davinci) 模型。 详细了解 [ Whisper 类型模型](https://platform.openai.com/docs/models/whisper?WT.mc_id=academic-105485-koreyst)。 +- **音频和语音识别**。 为此,Whisper 模型是一个不错的选择,因为它们是通常用于语音识别。 它经过不同音频数据的训练,可以执行多语言语音识别。 例如,您可以使用所有的模型,从价格便宜但功能强大的模型(如 Curry)到更昂贵拥有高性能的达芬奇(Davinci)模型。 详细了解 [ Whisper 类型模型](https://platform.openai.com/docs/models/whisper?WT.mc_id=academic-105485-koreyst)。 - **图像生成**。 对于图像生成,DALL-E 和 Midjourney 是两个最佳的选择。 DALL-E 由 Azure OpenAI 提供。 [在此处阅读有关 DALL-E 的更多信息](https://platform.openai.com/docs/models/dall-e?WT.mc_id=academic-105485-koreyst) 以及本课程的第九章。 @@ -53,7 +53,7 @@ LLM 模型有许多不同类型,您选择的模型取决于您的用途、您 图片来源:【基础模型和大语言模型基本指南| 巴巴尔·M·巴蒂 (Babar M Bhatti) | Medium ](https://thebabar.medium.com/essential-guide-to-foundation-models-and-large-language-models-27dab58f7404) -为了进一步阐明这种区别,我们以 ChatGPT 为例。 为了构建 ChatGPT 的第一个版本,名为 GPT-3.5 的模型作为基础模型。 这意味着 OpenAI 使用一些特定于聊天的数据来创建 GPT-3.5 的调整版本,专门用于在对话场景(例如聊天机器人) 中让其有更好的表现。 +为了进一步阐明这种区别,我们以 ChatGPT 为例。 为了构建 ChatGPT 的第一个版本,名为 GPT-3.5 的模型作为基础模型。 这意味着 OpenAI 使用一些特定于聊天的数据来创建 GPT-3.5 的调整版本,专门用于在对话场景(例如聊天机器人)中让其有更好的表现。 ![基础模型](../../images/Multimodal.png?WT.mc_id=academic-105485-koreyst) @@ -71,7 +71,7 @@ LLM 模型有许多不同类型,您选择的模型取决于您的用途、您 LLMs 还可以根据其产生的输出进行分类。 -嵌入是一组可以将文本转换为数字形式的模型,称为嵌入,它是输入文本的数字表示。 嵌入使机器更容易理解单词或句子之间的关系,并且可以用作其他模型的输入,例如分类模型或对数值数据具有更好性能的聚类模型。 嵌入模型通常用于迁移学习,其中为有大量数据的代理任务构建模型,然后将模型权重(嵌入) 重新用于其他下游任务。 此类别的一个示例是 [OpenAI 嵌入](https://platform.openai.com/docs/models/embeddings?WT.mc_id=academic-105485-koreyst)。 +嵌入是一组可以将文本转换为数字形式的模型,称为嵌入,它是输入文本的数字表示。 嵌入使机器更容易理解单词或句子之间的关系,并且可以用作其他模型的输入,例如分类模型或对数值数据具有更好性能的聚类模型。 嵌入模型通常用于迁移学习,其中为有大量数据的代理任务构建模型,然后将模型权重(嵌入)重新用于其他下游任务。 此类别的一个示例是 [OpenAI 嵌入](https://platform.openai.com/docs/models/embeddings?WT.mc_id=academic-105485-koreyst)。 ![嵌入](../../images/Embedding.png?WT.mc_id=academic-105485-koreyst) @@ -79,7 +79,7 @@ LLMs 还可以根据其产生的输出进行分类。 ![Image generation](../../images/Image.png?WT.mc_id=academic-105485-koreyst) -文本或代码生成模型主要是生成文本或代码。 这些模型通常用于文本摘要、翻译和问答。 文本生成模型通常在大型文本数据集上进行训练,例如 [BookCorpus](https://www.cv-foundation.org/openaccess/content_iccv_2015/html/Zhu_Aligning_Books_and_ICCV_2015_paper.html),并且可用于生成新文本或回答问题。 代码生成模型,例如 [CodeParrot](https://huggingface.co/codeparrot?WT.mc_id=academic-105485-koreyst),通常在大型代码数据集(如 GitHub) 上进行训练,可用于生成新代码或修复现有代码中的错误。 +文本或代码生成模型主要是生成文本或代码。 这些模型通常用于文本摘要、翻译和问答。 文本生成模型通常在大型文本数据集上进行训练,例如 [BookCorpus](https://www.cv-foundation.org/openaccess/content_iccv_2015/html/Zhu_Aligning_Books_and_ICCV_2015_paper.html),并且可用于生成新文本或回答问题。 代码生成模型,例如 [CodeParrot](https://huggingface.co/codeparrot?WT.mc_id=academic-105485-koreyst),通常在大型代码数据集(如 GitHub)上进行训练,可用于生成新代码或修复现有代码中的错误。 ![Text and code generation](../../images/Text.png?WT.mc_id=academic-105485-koreyst) @@ -106,9 +106,9 @@ LLMs 还可以根据其产生的输出进行分类。 ## 如何使用不同的模型进行测试和迭代从而了解 Azure 上的运行性能 一旦我们的团队探索了当前的 LLMs 前景并为他们的场景确定了一些好的候选模型后,下一步就是根据他们的数据和工作负载行测试。 这是一个迭代过程,通过实验和量化来完成。 -我们在前面的段落中提到的大多数模型(OpenAI 模型、Llama2 等开源模型和 Hugging Face transformers) 都可以在 [Azure 机器学习工作室](https://ml.azure.com/?WT.mc_id=academic-105485-koreyst) 中的目录中找到 [基础模型](https://learn.microsoft.com/azure/machine-learning/concept-foundation-models?WT.mc_id=academic-105485-koreyst) 。 +我们在前面的段落中提到的大多数模型(OpenAI 模型、Llama2 等开源模型和 Hugging Face transformers)都可以在 [Azure 机器学习工作室](https://ml.azure.com/?WT.mc_id=academic-105485-koreyst) 中的目录中找到 [基础模型](https://learn.microsoft.com/azure/machine-learning/concept-foundation-models?WT.mc_id=academic-105485-koreyst) 。 -[Azure 机器学习](https://azure.microsoft.com/products/machine-learning/?WT.mc_id=academic-105485-koreyst) 是一项云服务,专为数据科学家和机器学习工程师设计,用于管理整个机器学习生命周期(训练、测试、部署和 MLOps 相关的工作) 在一个平台上。 机器学习工作室为此服务提供图形用户界面,使用户能够: +[Azure 机器学习](https://azure.microsoft.com/products/machine-learning/?WT.mc_id=academic-105485-koreyst) 是一项云服务,专为数据科学家和机器学习工程师设计,用于管理整个机器学习生命周期(训练、测试、部署和 MLOps 相关的工作)在一个平台上。 机器学习工作室为此服务提供图形用户界面,使用户能够: - 在目录中查找感兴趣的基础模型,按任务、许可证或名称进行过滤。 还可以导入尚未包含在目录中的新模型。 - 查看模型名片(包括详细描述和代码示例,并通过提供示例提示来测试结果),使用示例推理小部件对其进行测试。 @@ -129,7 +129,7 @@ LLMs 还可以根据其产生的输出进行分类。 ## 提升 LLM 的输出结果准确度 -我们与 “Our startup” 团队一起探索了不同类型的 LLMs 和云平台(Azure 机器学习) ,使我们能够比较不同的模型,根据测试数据对其进行评估,提高性能并将其部署在推理端点上。 +我们与 “Our startup” 团队一起探索了不同类型的 LLMs 和云平台(Azure 机器学习),使我们能够比较不同的模型,根据测试数据对其进行评估,提高性能并将其部署在推理端点上。 但是他们什么时候应该考虑微调模型而不是使用预先训练的模型呢? 是否有其他方法可以提高模型在特定工作负载上的性能? @@ -151,24 +151,24 @@ LLMs 还可以根据其产生的输出进行分类。 预先训练的 LLMs 在广义自然语言任务上表现得非常好,甚至可以用简短的提示来调用它们,比如要完成的句子或问题——即所谓的“零样本”学习。 -然而,用户越能通过详细的请求和示例(上下文) 来构建他们的查询,就会得到最准确、最接近用户期望的答案。 在这种情况下,如果提示仅包含一个示例,我们讨论“单样本”学习;如果提示包含多个示例,我们讨论“少样本学习”。 +然而,用户越能通过详细的请求和示例(上下文)来构建他们的查询,就会得到最准确、最接近用户期望的答案。 在这种情况下,如果提示仅包含一个示例,我们讨论“单样本”学习;如果提示包含多个示例,我们讨论“少样本学习”。 根据上下文进行快速工程设计是最具成本效益的启动方法。 ### 检索增强生成 (RAG) -LLMs 有一个限制,即他们只能使用训练期间使用过的数据来生成答案。 这意味着他们对训练过程后发生的事情一无所知,并且无法访问非公开信息(例如公司数据) 。 -这可以通过 RAG 来克服,RAG 是一种考虑提示长度限制的技术,以文档块的形式使用外部数据来增强提示。 矢量数据库工具(例如 [Azure 向量搜索](https://learn.microsoft.com/azure/search/vector-search-overview?WT.mc_id=academic-105485-koreyst)) 支持此功能,可检索有用的信息来自各种预定义数据源的块并将它们添加到提示上下文中。 +LLMs 有一个限制,即他们只能使用训练期间使用过的数据来生成答案。 这意味着他们对训练过程后发生的事情一无所知,并且无法访问非公开信息(例如公司数据)。 +这可以通过 RAG 来克服,RAG 是一种考虑提示长度限制的技术,以文档块的形式使用外部数据来增强提示。 矢量数据库工具(例如 [Azure 向量搜索](https://learn.microsoft.com/azure/search/vector-search-overview?WT.mc_id=academic-105485-koreyst))支持此功能,可检索有用的信息来自各种预定义数据源的块并将它们添加到提示上下文中。 -当企业没有足够的数据、足够的时间或资源来微调 LLMs,但仍希望提高特定工作负载的性能并减少幻觉的风险(即对现实的神秘化或有害的风险) 时,此技术非常有用 +当企业没有足够的数据、足够的时间或资源来微调 LLMs,但仍希望提高特定工作负载的性能并减少幻觉的风险(即对现实的神秘化或有害的风险)时,此技术非常有用 ### 微调模型 -微调是一个利用迁移学习使模型“适应”下游任务或解决特定问题的过程。 与少样本学习和 RAG 不同,它会生成一个新模型,并更新权重和偏差。 它需要一组训练示例,其中包含单个输入(提示) 及其关联的输出(完成) 。 +微调是一个利用迁移学习使模型“适应”下游任务或解决特定问题的过程。 与少样本学习和 RAG 不同,它会生成一个新模型,并更新权重和偏差。 它需要一组训练示例,其中包含单个输入(提示)及其关联的输出(完成)。 如果出现以下情况,这将是首选方法: -- **使用微调模型**。 企业希望使用经过微调能力较差的模型(例如嵌入模型) 而不是高性能模型,从而获得更具成本效益和快速的解决方案。 +- **使用微调模型**。 企业希望使用经过微调能力较差的模型(例如嵌入模型)而不是高性能模型,从而获得更具成本效益和快速的解决方案。 - **考虑延迟**。 延迟对于特定用例很重要,因此不可能使用很长的提示,或者应该从模型中学习的示例数量不符合提示长度限制。 diff --git a/03-using-generative-ai-responsibly/translations/cn/README.md b/03-using-generative-ai-responsibly/translations/cn/README.md index 8a5bd8e39..7b9f836cd 100644 --- a/03-using-generative-ai-responsibly/translations/cn/README.md +++ b/03-using-generative-ai-responsibly/translations/cn/README.md @@ -34,7 +34,7 @@ 生成式人工智能的独特性在于它能够为用户创建有用的答案、信息、指导和内容。 无需许多手动步骤即可完成此操作,这可以带来非常令人印象深刻的结果。 不幸的是如果没有适当的规划和策略,它也可能会给您的用户、产品和整个社会带来一些有害的结果。 -让我们看看这些潜在有害结果中的一些(但不是全部) : +让我们看看这些潜在有害结果中的一些(但不是全部): ### 幻觉 @@ -90,7 +90,7 @@ ![缓解层](../../images/mitigation-layers.png?WT.mc_id=academic-105485-koreyst) -- **模型**。 为正确的用例选择正确的模型。 当应用于更小、更具体的用例时,更大、更复杂的模型(例如 GPT-4) 可能会导致更大的有害内容风险。 使用训练数据进行微调还可以降低有害内容的风险。 +- **模型**。 为正确的用例选择正确的模型。 当应用于更小、更具体的用例时,更大、更复杂的模型(例如 GPT-4)可能会导致更大的有害内容风险。 使用训练数据进行微调还可以降低有害内容的风险。 - **安全系统**。 安全系统是平台上为模型服务的一组工具和配置,有助于减轻伤害。 Azure OpenAI Service 上的内容过滤系统就是一个例子。 系统还应该检测越狱攻击和不需要的活动,例如来自网络机器人的请求。 @@ -106,11 +106,11 @@ ### 运营负责任的生成式人工智能解决方案 -围绕人工智能应用程序构建操作实践是最后阶段。 这包括与“Our startup”的其他部门(例如法律和安全部门) 合作,以确保我们遵守所有监管政策。 在发布之前,我们还希望围绕交付、处理事件和回滚制定计划,以防止扩大对用户造成的任何伤害。 +围绕人工智能应用程序构建操作实践是最后阶段。 这包括与“Our startup”的其他部门(例如法律和安全部门)合作,以确保我们遵守所有监管政策。 在发布之前,我们还希望围绕交付、处理事件和回滚制定计划,以防止扩大对用户造成的任何伤害。 ## 相关工具 -虽然开发负责任 AI 解决方案的工作量可能看起来很多,但这是值得付出的。 随着生成式人工智能领域的发展,更多帮助开发人员有效地将责任整合到工作流程中的工具将会更成熟。 如,[Azure AI 内容安全](https://learn.microsoft.com/azure/ai-services/content-safety/overview?WT.mc_id=academic-105485-koreyst ) 可以通过 API 请求帮助检测有害内容和图像。 +虽然开发负责任 AI 解决方案的工作量可能看起来很多,但这是值得付出的。 随着生成式人工智能领域的发展,更多帮助开发人员有效地将责任整合到工作流程中的工具将会更成熟。 如,[Azure AI 内容安全](https://learn.microsoft.com/azure/ai-services/content-safety/overview?WT.mc_id=academic-105485-koreyst) 可以通过 API 请求帮助检测有害内容和图像。 ## 知识检查 diff --git a/04-prompt-engineering-fundamentals/translations/cn/README.md b/04-prompt-engineering-fundamentals/translations/cn/README.md index 5033b25c3..94092938e 100644 --- a/04-prompt-engineering-fundamentals/translations/cn/README.md +++ b/04-prompt-engineering-fundamentals/translations/cn/README.md @@ -5,9 +5,9 @@ 如何撰写 LLM 的提示很重要,精心设计的提示可以比不精心设计的提示取得更好的结果。 但这些概念到底是什么,提示、提示工程以及我如何改进我发送给 LLMs 的内容? 诸如此类的问题正是本章和下一章想要解答的。 -_生成式人工智能_能够根据用户请求创建新内容(例如文本、图像、音频、代码等) 。 它使用 LLMs 来实现这一目标,例如 OpenAI 的 GPT 模型系列,这些模型通过使用自然语言和代码进行训练。 +_生成式人工智能_能够根据用户请求创建新内容(例如文本、图像、音频、代码等)。 它使用 LLMs 来实现这一目标,例如 OpenAI 的 GPT 模型系列,这些模型通过使用自然语言和代码进行训练。 -用户现在可以使用熟悉的语言(如聊天) 与这些模型进行交互,而无需任何技术专业知识或培训。 这些模型是基于提示的——用户发送文本输入(提示) 并获取人工智能响应(完成) 。 然后,他们可以在多轮对话中迭代地“与人工智能聊天”,完善他们的提示,直到响应符合他们的预期。 +用户现在可以使用熟悉的语言(如聊天)与这些模型进行交互,而无需任何技术专业知识或培训。 这些模型是基于提示的——用户发送文本输入(提示)并获取人工智能响应(完成)。 然后,他们可以在多轮对话中迭代地“与人工智能聊天”,完善他们的提示,直到响应符合他们的预期。 “提示”现在成为生成式人工智能应用程序的主要_编程界面_,告诉模型要做什么并影响返回响应的质量。 “提示工程”是一个快速发展的研究领域,专注于提示的“设计和优化”,以大规模提供一致且高质量的响应。 @@ -36,7 +36,7 @@ _生成式人工智能_能够根据用户请求创建新内容(例如文本、 默认 Notebook 设置为与 OpenAI API 密钥一起使用。 只需将文件夹根目录中的“.env.copy”文件复制到“.env”,并使用您的 API 密钥更新“OPENAI_API_KEY=”行 - 一切就完成了。 -该 Notebook 附带入门练习 - 但我们鼓励您添加自己的Markdown描述) 和代码(提示请求) 部分来尝试更多示例或想法 - 并建立您对提示工程设计的感觉。 +该 Notebook 附带入门练习 - 但我们鼓励您添加自己的Markdown描述)和代码(提示请求)部分来尝试更多示例或想法 - 并建立您对提示工程设计的感觉。 ## Our Startup 的使命 @@ -75,7 +75,7 @@ Define it and explain why it is needed. ### Tokenization -LLM 将提示视为标记序列,其中不同的模型(或模型的版本) 可以以不同的方式对同一提示进行标记。 由于 LLM 是根据标记(而不是原始文本) 进行训练的,因此提示标记化的方式对生成的响应的质量有直接影响。 +LLM 将提示视为标记序列,其中不同的模型(或模型的版本)可以以不同的方式对同一提示进行标记。 由于 LLM 是根据标记(而不是原始文本)进行训练的,因此提示标记化的方式对生成的响应的质量有直接影响。 要直观地了解标记化的工作原理,请尝试使用如下所示的 [OpenAI Tokenizer](https://platform.openai.com/tokenizer?WT.mc_id=academic-105485-koreyst) 等工具。 复制您的提示 - 并查看如何将其转换为标记,注意空白字符和标点符号的处理方式。 请注意,此例子显示的是较旧的 LLM (GPT-3) - 因此使用较新的模型尝试此操作可能会产生不同的结果。 @@ -89,7 +89,7 @@ Want to see how prompt-based completion works? Enter the above prompt into the A But what if the user wanted to see something specific that met some criteria or task objective? This is where _instruction-tuned_ LLMs come into the picture. -一旦提示被标记化,[“Base LLM”](https://blog.gopenai.com/an-introduction-to-base-and-instruction-tuned-large-language-models-8de102c785a6?WT.mc_id=academic-105485-koreyst)的主要功能 (或基础模型) 是预测该序列中的标记。 由于 LLMs 接受过大量文本数据集的训练,因此他们对标记之间的统计关系有很好的理解,并且可以自信地做出预测。 并不是说他们不理解提示或标记中单词的含义,他们只是看到了一个可以通过下一个预测“完成”的模式。 他们可以继续预测序列,直到被用户干预或某些预先设定的条件终止。 +一旦提示被标记化,[“Base LLM”](https://blog.gopenai.com/an-introduction-to-base-and-instruction-tuned-large-language-models-8de102c785a6?WT.mc_id=academic-105485-koreyst)的主要功能 (或基础模型)是预测该序列中的标记。 由于 LLMs 接受过大量文本数据集的训练,因此他们对标记之间的统计关系有很好的理解,并且可以自信地做出预测。 并不是说他们不理解提示或标记中单词的含义,他们只是看到了一个可以通过下一个预测“完成”的模式。 他们可以继续预测序列,直到被用户干预或某些预先设定的条件终止。 想了解基于提示补全是如何工作的吗? 使用默认设置将上述提示输入到 Azure OpenAI Studio [_Chat Playground_](https://oai.azure.com/playground?WT.mc_id=academic-105485-koreyst)。 系统配置会将提示视为信息请求 - 因此您应该看到满足此上下文的补全。 @@ -99,7 +99,7 @@ But what if the user wanted to see something specific that met some criteria or ### 概念: LLMs 中的指令调整 -[ LLMs 中的指令调整](https://blog.gopenai.com/an-introduction-to-base-and-instruction-tuned-large-language-models-8de102c785a6?WT.mc_id=academic-105485-koreyst) 从基础模型开始,并使用以下参数对其进行微调 可以包含明确指令的示例或输入/输出对(例如多轮“消息”) ,以及人工智能尝试遵循该指令的响应。 +[ LLMs 中的指令调整](https://blog.gopenai.com/an-introduction-to-base-and-instruction-tuned-large-language-models-8de102c785a6?WT.mc_id=academic-105485-koreyst) 从基础模型开始,并使用以下参数对其进行微调 可以包含明确指令的示例或输入/输出对(例如多轮“消息”),以及人工智能尝试遵循该指令的响应。 它使用诸如人类反馈强化学习 (RLHF) 之类的技术,可以训练模型“遵循指令”并“从反馈中学习”,从而产生更适合实际应用且与用户目标更相关的响应。 @@ -123,16 +123,16 @@ But what if the user wanted to see something specific that met some criteria or 让我们看看 OpenAI 或 Azure OpenAI Playground 中的实际情况: -- 对不同的 LLM 部署(例如 OpenAI、Azure OpenAI、Hugging Face) 使用相同的提示 - 您看到差异了吗? -- 对相同的 LLM 部署(例如 Azure OpenAI Playground) 重复使用相同的提示 - 产生的结果有何不同? +- 对不同的 LLM 部署(例如 OpenAI、Azure OpenAI、Hugging Face)使用相同的提示 - 您看到差异了吗? +- 对相同的 LLM 部署(例如 Azure OpenAI Playground)重复使用相同的提示 - 产生的结果有何不同? ### 幻觉示例 -想了解幻觉是如何运作的吗? 想象一个提示,指示人工智能为不存在的主题生成内容(以确保在训练数据集中没有该信息) 。 例如 - 我尝试了这个提示: +想了解幻觉是如何运作的吗? 想象一个提示,指示人工智能为不存在的主题生成内容(以确保在训练数据集中没有该信息)。 例如 - 我尝试了这个提示: > **Prompt:** generate a lesson plan on the Martian War of 2076. -网络搜索显示,有关于火星战争的虚构叙述(例如电视剧或书籍) ,但没有 2076 年的故事。常识还告诉我们,2076 年是“未来”,因此无法与真实事件联系起来。 +网络搜索显示,有关于火星战争的虚构叙述(例如电视剧或书籍),但没有 2076 年的故事。常识还告诉我们,2076 年是“未来”,因此无法与真实事件联系起来。 那么,当我们对不同的 LLMs 提供者运行此提示时会发生什么? @@ -148,7 +148,7 @@ But what if the user wanted to see something specific that met some criteria or ![Response 3](../../images/04-fabrication-huggingchat.png?WT.mc_id=academic-105485-koreyst) -正如预期的那样,由于随机行为和模型能力变化,每个模型(或模型版本) 都会产生略有不同的响应。 例如,一个模型针对八年级受众,而另一个模型则假设高中生。 但所有三个模型确实生成了可以让不知情的用户相信该事件是真实的响应 +正如预期的那样,由于随机行为和模型能力变化,每个模型(或模型版本)都会产生略有不同的响应。 例如,一个模型针对八年级受众,而另一个模型则假设高中生。 但所有三个模型确实生成了可以让不知情的用户相信该事件是真实的响应 像元提示和温度配置这样的提示工程技术可以在一定程度上减少模型幻觉。 新的提示工程架构还将新工具和技术无缝地融入到提示流程中,以减轻或减少其中一些影响。 @@ -156,7 +156,7 @@ But what if the user wanted to see something specific that met some criteria or 让我们通过一个案例研究来了解如何在实际解决方案中使用提示工程:[GitHub Copilot](https://github.com/features/copilot?WT.mc_id=academic-105485-koreyst)。 -GitHub Copilot 是您的“AI 结对编程器” - 它将文本提示转换为代码补全,并集成到您的开发环境(例如 Visual Studio Code) 中,以提供无缝的用户体验。 正如下面的系列博客中所述,最早的版本基于 OpenAI Codex 模型 - 工程师很快意识到需要微调模型并开发更好的提示工程技术,以提高代码质量。 7 月,他们 [首次推出了超越 Codex 模型的改进人工智能模型](https://github.blog/2023-07-28-smarter-more-efficient-coding-github-copilot-goes-beyond-codex-with-improved-ai-model/?WT.mc_id=academic-105485-koreyst) 以获得更快的建议。 +GitHub Copilot 是您的“AI 结对编程器” - 它将文本提示转换为代码补全,并集成到您的开发环境(例如 Visual Studio Code)中,以提供无缝的用户体验。 正如下面的系列博客中所述,最早的版本基于 OpenAI Codex 模型 - 工程师很快意识到需要微调模型并开发更好的提示工程技术,以提高代码质量。 7 月,他们 [首次推出了超越 Codex 模型的改进人工智能模型](https://github.blog/2023-07-28-smarter-more-efficient-coding-github-copilot-goes-beyond-codex-with-improved-ai-model/?WT.mc_id=academic-105485-koreyst) 以获得更快的建议。 按顺序阅读帖子,了解他们的成长过程 @@ -230,8 +230,8 @@ response = openai.ChatCompletion.create( 在上面的示例中,提示仍然相当开放,允许 LLMs 决定其预训练数据集的哪一部分是相关的。 使用主要内容设计模式,输入文本分为两部分: -- 指令(动作) -- 相关内容(影响响应) +- 指令(动作) +- 相关内容(影响响应) 下面是一个示例,其中的指令是“用 2 句话总结这一点”。 @@ -245,7 +245,7 @@ response = openai.ChatCompletion.create( - **示例** - 不要用明确的指令告诉模型要做什么,而是给它提供要做什么的示例,并让它进行推断。 - **暗示** - 遵循带有“暗示”的说明,引导完成,引导模型做出更相关的响应。 -- **模板** - 这些是带有占位符(变量) 提示的可重复“配方”,可以使用特定用例的数据进行自定义。 +- **模板** - 这些是带有占位符(变量)提示的可重复“配方”,可以使用特定用例的数据进行自定义。 ### 用例方式 @@ -256,7 +256,7 @@ response = openai.ChatCompletion.create( - 任务描述 - 所需输出的一些示例 -- 新示例的开始(成为隐式任务描述) +- 新示例的开始(成为隐式任务描述) ```text | Learning Type | Prompt (Input) | Completion (Output) | @@ -267,7 +267,7 @@ response = openai.ChatCompletion.create( | | | | ``` -请注意,我们如何必须在零样本提示中提供明确的指令(“翻译为西班牙语”) ,但它是在一次提示示例中推断出来的。 这个少样本示例展示了如何添加更多示例来让模型在不添加指令的情况下做出更准确的推理。 +请注意,我们如何必须在零样本提示中提供明确的指令(“翻译为西班牙语”),但它是在一次提示示例中推断出来的。 这个少样本示例展示了如何添加更多示例来让模型在不添加指令的情况下做出更准确的推理。 ### 暗示提示 @@ -284,17 +284,17 @@ response = openai.ChatCompletion.create( ### 提示模版 -提示模板是预定义的提示配方,可以根据需要进行存储和重用,以大规模推动更一致的用户体验。 最简单的形式是,它只是一组提示示例的集合,例如 [OpenAI 中的这个例子](https://platform.openai.com/examples?WT.mc_id=academic-105485-koreyst),它提供了交互式提示组件(用户和系统消息) 和 AP驱动请求格式来支持重用。 +提示模板是预定义的提示配方,可以根据需要进行存储和重用,以大规模推动更一致的用户体验。 最简单的形式是,它只是一组提示示例的集合,例如 [OpenAI 中的这个例子](https://platform.openai.com/examples?WT.mc_id=academic-105485-koreyst),它提供了交互式提示组件(用户和系统消息)和 AP驱动请求格式来支持重用。 -在它更复杂的形式中,比如[LangChain的这个例子](https://python.langchain.com/docs/modules/model_io/prompts/prompt_templates/?WT.mc_id=academic-105485-koreyst),它包含占位符,可以替换为来自各种来源的数据(用户 输入、系统上下文、外部数据源等) 来动态生成提示。 这使我们能够创建一个可重用的提示库,可用于大规模地**以编程方式**驱动一致的用户体验。 +在它更复杂的形式中,比如[LangChain的这个例子](https://python.langchain.com/docs/modules/model_io/prompts/prompt_templates/?WT.mc_id=academic-105485-koreyst),它包含占位符,可以替换为来自各种来源的数据(用户 输入、系统上下文、外部数据源等)来动态生成提示。 这使我们能够创建一个可重用的提示库,可用于大规模地**以编程方式**驱动一致的用户体验。 最后,模板的真正价值在于能够为垂直应用程序领域创建和发布提示库 - 其中提示模板现在已优化以反映特定于应用程序的上下文或示例,使响应对于目标用户受众更加相关和准确 。 [Prompts For Edu](https://github.com/microsoft/prompts-for-edu?WT.mc_id=academic-105485-koreyst) repo 是这种方法的一个很好的例子,它为教育领域策划了一个提示库,重点关注课程计划等关键目标, 课程设计、学生辅导等 ## 支持内容 -如果我们将提示构建视为具有指令(任务) 和目标(主要内容) ,那么次要内容_像我们提供的附加上下文**以某种方式影响输出**。 它可以是调整参数、格式化指令、主题分类法等,可以帮助模型定制其响应以适应所需的用户目标或期望。 +如果我们将提示构建视为具有指令(任务) 和目标(主要内容),那么次要内容_像我们提供的附加上下文**以某种方式影响输出**。 它可以是调整参数、格式化指令、主题分类法等,可以帮助模型定制其响应以适应所需的用户目标或期望。 -例如:给定一个包含课程表中所有可用课程的广泛元数据(名称、描述、级别、元数据标签、讲师等) 的课程目录: +例如:给定一个包含课程表中所有可用课程的广泛元数据(名称、描述、级别、元数据标签、讲师等)的课程目录: - 我们可以定义一条指令来“总结 2023 年秋季课程目录” - 我们可以使用主要内容来提供所需输出的一些示例 @@ -326,9 +326,9 @@ Illustrate it with some exercises. 1. **领域理解很重要。** 响应准确性和相关性是应用程序或用户操作的与特定领域相关的函数。 运用您的直觉和领域专业知识进一步**定制技术**。 例如,在系统提示中定义特定于某个领域的个性化,或在用户提示中使用特定于某领域的模板。 提供反映特定领域上下文的辅助内容,或使用特定领域的提示和示例来指导模型走向熟悉的使用模式。 -2. **模型理解很重要。** 我们知道模型产生的结果本质上是随机的。 但模型实现也可能因它们使用的训练数据集(预先训练的知识) 、它们提供的功能(例如,通过 API 或 SDK) 以及它们优化的内容类型(例如,代码与图像与文本) 。 了解您正在使用的模型的优点和局限性,并利用这些知识来确定任务的优先级或构建针对模型功能进行优化的自定义模板。 +2. **模型理解很重要。** 我们知道模型产生的结果本质上是随机的。 但模型实现也可能因它们使用的训练数据集(预先训练的知识)、它们提供的功能(例如,通过 API 或 SDK)以及它们优化的内容类型(例如,代码与图像与文本)。 了解您正在使用的模型的优点和局限性,并利用这些知识来确定任务的优先级或构建针对模型功能进行优化的自定义模板。 -3. **迭代和验证很重要。** 模型正在迅速发展,提示工程技术也在迅速发展。 作为领域专家,您可能有其他特定应用程序的背景或标准,这些背景或标准可能不适用于更广泛的社区。 使用提示工程工具和技术“快速启动”提示构建,然后使用您自己的直觉和领域专业知识迭代和验证结果。 记录您的见解并创建一个**知识库**(例如提示库) ,其他人可以将其用作新的基线,以便将来更快地迭代。 +3. **迭代和验证很重要。** 模型正在迅速发展,提示工程技术也在迅速发展。 作为领域专家,您可能有其他特定应用程序的背景或标准,这些背景或标准可能不适用于更广泛的社区。 使用提示工程工具和技术“快速启动”提示构建,然后使用您自己的直觉和领域专业知识迭代和验证结果。 记录您的见解并创建一个**知识库**(例如提示库),其他人可以将其用作新的基线,以便将来更快地迭代。 ## 最佳实践 @@ -371,9 +371,9 @@ Link to a copy of that Notebook with the prompts filled in and run, showing what ### 首先,fork the repo,然后 --(推荐) 启动 GitHub Codespaces -- (或者) 将 repo 克隆到本地设备并将其与 Docker Desktop 一起使用 -- (或者) 使用您的笔记本运行时环境来打开笔记本。 +-(推荐)启动 GitHub Codespaces +- (或者)将 repo 克隆到本地设备并将其与 Docker Desktop 一起使用 +- (或者)使用您的笔记本运行时环境来打开笔记本。 ### 接下来,配置你的环境变量 @@ -401,7 +401,7 @@ Wrap the section with a summary and resources for self-guided learning. 2. Show me an image of red car of make Volvo and model XC90 parked by a cliff with the sun setting 3. Show me an image of red car of make Volvo and model XC90 -答:2,这是最好的提示,因为它提供了有关“内容”的详细信息并详细说明(不仅仅是任何汽车,而是特定的品牌和型号) ,并且还描述了整体设置。 3 是次佳的,因为它也包含很多描述。 +答:2,这是最好的提示,因为它提供了有关“内容”的详细信息并详细说明(不仅仅是任何汽车,而是特定的品牌和型号),并且还描述了整体设置。 3 是次佳的,因为它也包含很多描述。 ## 🚀 知识拓展 diff --git a/06-text-generation-apps/translations/cn/README.md b/06-text-generation-apps/translations/cn/README.md index 6d0b66362..d162d9035 100644 --- a/06-text-generation-apps/translations/cn/README.md +++ b/06-text-generation-apps/translations/cn/README.md @@ -30,7 +30,7 @@ 一般来说当您构建应用程序时,它具有某种界面,如下所示: - 基于命令。 控制台应用程序是典型的应用程序,您可以在其中键入命令并执行任务。 例如,“git”是一个基于命令的应用程序。 -- 用户界面(UI) 。 某些应用程序具有图形用户界面 (GUI),您可以在其中单击按钮、输入文本、选择选项等。 +- 用户界面(UI)。 某些应用程序具有图形用户界面 (GUI),您可以在其中单击按钮、输入文本、选择选项等。 ### 传统控制台和 UI 应用程序的局限性 @@ -376,7 +376,7 @@ Shopping List: That's your five recipes, with no garlic mentioned and you also have a shopping list considering what you already have at home. -这是根据您的购买清单生成你的食谱(不包含大蒜) +这是根据您的购买清单生成你的食谱(不包含大蒜) ## 实战 - 打造一个菜谱生成器 @@ -618,7 +618,7 @@ That's your five recipes, with no garlic mentioned and you also have a shopping 以下是一些建议: - 调整食谱生成器应用程序以进一步改进它。 尝试一下温度值和提示,看看你能想出什么。 -- 建立一个“学习伙伴”。 这个应用程序应该能够回答有关某个主题(例如 Python) 的问题,您可能会收到诸如“Python 中的某个主题是什么?”之类的提示,或者您可能会收到一个提示,显示某个主题的代码等。 +- 建立一个“学习伙伴”。 这个应用程序应该能够回答有关某个主题(例如 Python)的问题,您可能会收到诸如“Python 中的某个主题是什么?”之类的提示,或者您可能会收到一个提示,显示某个主题的代码等。 - 历史机器人,让历史变得生动起来,指导机器人扮演某个历史人物,并向其询问有关其生活和时代的问题。 ## 解决方案 diff --git a/07-building-chat-applications/translations/cn/README.md b/07-building-chat-applications/translations/cn/README.md index 3b52f5ace..8222c5e45 100644 --- a/07-building-chat-applications/translations/cn/README.md +++ b/07-building-chat-applications/translations/cn/README.md @@ -79,12 +79,12 @@ chat_completion = openai.ChatCompletion.create(model="gpt-3.5-turbo", messages=[ AuthenticationError: No API key provided. You can set your API key in code using 'openai.api_key = ', or you can set the environment variable OPENAI_API_KEY=). If your API key is stored in a file, you can point the openai module at it with 'openai.api_key_path = '. You can generate API keys in the OpenAI web interface. See https://platform.openai.com/account/api-keys for details. ``` -## 用户体验(UX) +## 用户体验(UX) 一般用户体验原则适用于聊天应用程序,但由于涉及机器学习组件,这里有一些额外考虑因素,这就变得特别重要。 - **解决模糊性的机制**:生成式人工智能模型偶尔会生成模糊的答案。 如果用户遇到此问题,允许用户要求进行澄清可能会有所帮助。 -- **上下文保留**:先进的生成式人工智能模型能够记住对话中的上下文,这可能是用户体验的必要资产。 赋予用户控制和管理上下文的能力可以改善用户体验,但会带来保留敏感用户信息的风险。 考虑这些信息的存储时间(例如引入保留策略) 可以平衡上下文需求和隐私。 +- **上下文保留**:先进的生成式人工智能模型能够记住对话中的上下文,这可能是用户体验的必要资产。 赋予用户控制和管理上下文的能力可以改善用户体验,但会带来保留敏感用户信息的风险。 考虑这些信息的存储时间(例如引入保留策略)可以平衡上下文需求和隐私。 - **个性化**:人工智能模型具有学习和适应能力,为用户提供个性化体验。 通过用户个人资料等功能定制用户体验,不仅让用户感到亲切,而且还有助于他们得到特定答案,创造更高效、令人满意的交互。 个性化的一个例子是 OpenAI 的 ChatGPT 中的“自定义指令”设置。 它允许您提供有关您自己的信息,这些信息可能是您的提示的重要背景。 以下是自定义指令的示例。 @@ -122,7 +122,7 @@ AuthenticationError: No API key provided. You can set your API key in code using ## 定制:使用 DSL -利用特定于领域的语言模型(DSL 模型) 可以通过提供专门的、上下文相关的交互来增强用户参与度。 它是一个经过训练或微调的模型,可以理解和生成与特定领域、行业或主题相关的文本。 使用 DSL 模型的选项多种多样,从头开始训练到通过 SDK 和 API 使用预先存在的模型。 另一种选择是微调,其中涉及采用现有的预训练模型并将其适应特定领域。 +利用特定于领域的语言模型(DSL 模型)可以通过提供专门的、上下文相关的交互来增强用户参与度。 它是一个经过训练或微调的模型,可以理解和生成与特定领域、行业或主题相关的文本。 使用 DSL 模型的选项多种多样,从头开始训练到通过 SDK 和 API 使用预先存在的模型。 另一种选择是微调,其中涉及采用现有的预训练模型并将其适应特定领域。 ## 定制:应用微调 @@ -155,7 +155,7 @@ AuthenticationError: No API key provided. You can set your API key in code using | **正常运行时间** | 衡量应用程序运行和用户访问的时间。 | 您将如何最大限度地减少停机时间? | | **响应时间** | 应用程序回复用户查询所花费的时间。 | 如何优化查询处理以缩短响应时间? | | **精确** | 真阳性预测占阳性预测总数的比率 | 您将如何验证模型的精度? | -| **召回率(灵敏度) ** | 真阳性预测与实际阳性数量的比率 | 您将如何衡量和提高召回率? | +| **召回率(灵敏度)** | 真阳性预测与实际阳性数量的比率 | 您将如何衡量和提高召回率? | | **F1 得分** | 精确率和召回率的调和平均值,平衡两者之间的权衡。 | 您的目标 F1 分数是多少? 您将如何平衡精确度和召回率? | | **困惑** | 衡量模型预测的概率分布与数据实际分布的吻合程度。 | 您将如何最大程度地减少困惑? | | **用户满意度指标** | 衡量用户对应用程序的感知。 通常通过调查捕获。 | 您多久收集一次用户反馈? 在此基础上你将如何适应? | diff --git a/08-building-search-applications/translations/cn/README.md b/08-building-search-applications/translations/cn/README.md index 4d8a78c4d..36ff6f133 100644 --- a/08-building-search-applications/translations/cn/README.md +++ b/08-building-search-applications/translations/cn/README.md @@ -54,7 +54,7 @@ LLMs 应用场景不仅仅是聊天机器人和文本生成。 还可以使用 Today we are going to learn about Azure Machine Learning. ``` -我们将文本传递给 OpenAI Embedding API,它将返回以下由 1536 个数字(也称为向量) 组成的嵌入。 向量中的每个数字代表文本的不同方面。 为简洁起见,这里是向量中的前 10 个数字。 +我们将文本传递给 OpenAI Embedding API,它将返回以下由 1536 个数字(也称为向量)组成的嵌入。 向量中的每个数字代表文本的不同方面。 为简洁起见,这里是向量中的前 10 个数字。 ```python [-0.006655829958617687, 0.0026128944009542465, 0.008792596869170666, -0.02446001023054123, -0.008540431968867779, 0.022071078419685364, -0.010703742504119873, 0.003311325330287218, -0.011632772162556648, -0.02187200076878071, ...] diff --git a/09-building-image-applications/translations/cn/README.md b/09-building-image-applications/translations/cn/README.md index f0dd209a7..afea0b4a9 100644 --- a/09-building-image-applications/translations/cn/README.md +++ b/09-building-image-applications/translations/cn/README.md @@ -247,7 +247,7 @@ generation_response = openai.Image.create( 您还可以执行以下操作: -- **执行编辑**。 通过为现有图像提供遮罩和提示,您可以更改图像。 例如,您可以向图像的一部分添加某些内容。 想象一下我们的兔子图像,您可以给兔子添加一顶帽子。 您将如何做到这一点,方法是提供图像、遮罩(标识要更改的区域的部分) 和文本提示来说明应该做什么。 +- **执行编辑**。 通过为现有图像提供遮罩和提示,您可以更改图像。 例如,您可以向图像的一部分添加某些内容。 想象一下我们的兔子图像,您可以给兔子添加一顶帽子。 您将如何做到这一点,方法是提供图像、遮罩(标识要更改的区域的部分)和文本提示来说明应该做什么。 ```python response = openai.Image.create_edit( diff --git a/10-building-low-code-ai-applications/translations/cn/README.md b/10-building-low-code-ai-applications/translations/cn/README.md index 9149924eb..efe165fc2 100644 --- a/10-building-low-code-ai-applications/translations/cn/README.md +++ b/10-building-low-code-ai-applications/translations/cn/README.md @@ -51,7 +51,7 @@ Copilot 是一款 AI 助手,可让您使用自然语言以一系列对话步 您可以使用 Copilot 驱动的功能作为应用程序屏幕中的一项功能,使用户能够通过对话交互发现见解。 -AI Builder 是 Power Platform 中提供的低代码 AI 功能,使您能够使用 AI 模型来帮助您自动化流程并预测结果。 借助 AI Builder,您可以将 AI 引入连接到 Dataverse 或各种云数据源(例如 SharePoint、OneDrive 或 Azure) 中的数据的应用程序和流程。 +AI Builder 是 Power Platform 中提供的低代码 AI 功能,使您能够使用 AI 模型来帮助您自动化流程并预测结果。 借助 AI Builder,您可以将 AI 引入连接到 Dataverse 或各种云数据源(例如 SharePoint、OneDrive 或 Azure)中的数据的应用程序和流程。 Copilot 适用于所有 Power Platform 产品:Power Apps、Power Automate、Power BI、Power Pages 和 Power Virtual Agent。 AI Builder 可在 Power Apps 和 Power Automate 中使用。 在本课程中,我们将重点介绍如何在 Power Apps 和 Power Automate 中使用 Copilot 和 AI Builder 为我们的教育初创公司构建解决方案。 @@ -63,7 +63,7 @@ Power Apps 中的 Copilot AI 助手功能使您能够描述您需要哪种类 ### Power Automate 中的 Copilot -作为 Power Platform 的一部分,Power Automate 允许用户在应用程序和服务之间创建自动化工作流程。 它有助于自动化重复的业务流程,例如通信、数据收集和决策批准。 其简单的界面允许具有各种技术能力的用户(从初学者到经验丰富的开发人员) 自动执行工作任务。 通过 Copilot 的生成式 AI 也增强了工作流程开发体验。 +作为 Power Platform 的一部分,Power Automate 允许用户在应用程序和服务之间创建自动化工作流程。 它有助于自动化重复的业务流程,例如通信、数据收集和决策批准。 其简单的界面允许具有各种技术能力的用户(从初学者到经验丰富的开发人员)自动执行工作任务。 通过 Copilot 的生成式 AI 也增强了工作流程开发体验。 Power Automate 中的 Copilot AI 助手功能使您能够描述您需要哪种流程以及您希望流程执行哪些操作。 然后 Copilot 根据您的描述生成流程。 然后,您可以自定义流程以满足您的需求。 AI Copilot 还会生成并建议您执行想要自动化的任务所需的操作。 我们将在本章中稍后介绍什么是流以及如何在 Power Automate 中使用它们。 然后,您可以通过对话步骤使用 AI Copilot 助手功能自定义操作以满足您的需求。 通过 Power Automate 主屏幕轻松使用此功能。 @@ -158,7 +158,7 @@ Power Platform 有一个名为 Dataverse 的底层数据平台,使您能够存 ## Power Platform 中的 AI 模型与 AI Builder -AI Builder 是 Power Platform 中提供的低代码 AI 功能,使您能够使用 AI 模型来帮助您自动化流程并预测结果。 借助 AI Builder,您可以将 AI 引入连接到 Dataverse 或各种云数据源(例如 SharePoint、OneDrive 或 Azure) 中的数据的应用程序和流程。 +AI Builder 是 Power Platform 中提供的低代码 AI 功能,使您能够使用 AI 模型来帮助您自动化流程并预测结果。 借助 AI Builder,您可以将 AI 引入连接到 Dataverse 或各种云数据源(例如 SharePoint、OneDrive 或 Azure)中的数据的应用程序和流程。 ## 预定义 AI 模型与自定义 AI 模型 diff --git a/11-integrating-with-function-calling/translations/cn/README.md b/11-integrating-with-function-calling/translations/cn/README.md index 1fdb9e436..f00978ac6 100644 --- a/11-integrating-with-function-calling/translations/cn/README.md +++ b/11-integrating-with-function-calling/translations/cn/README.md @@ -176,7 +176,7 @@ Function Calling 是 Azure Open AI Service 的一项功能,旨在克服以下 - **创建 API 或数据库查询**。 用户可以使用自然语言查找信息,并将其转换为格式化查询或 API 请求。 举个例子,老师请求“谁是完成最后作业的学生”,该老师可以调用名为 'get_completed(student_name: string, assignment: int, current_status: string)' 的函数 -- **创建结构化数据**。 用户可以获取一段文本或 CSV 并使用 LLM 从中提取重要信息。 例如,学生可以将有关和平协议的维基百科文章转换为创建人工智能闪存卡。 这可以通过使用名为 'get_important_facts(agreement_name:string,date_signed:string,partys_involved:list) ' 的函数来完成 +- **创建结构化数据**。 用户可以获取一段文本或 CSV 并使用 LLM 从中提取重要信息。 例如,学生可以将有关和平协议的维基百科文章转换为创建人工智能闪存卡。 这可以通过使用名为 'get_important_facts(agreement_name:string,date_signed:string,partys_involved:list)' 的函数来完成 ## 创建您的第一个 function calling @@ -192,7 +192,7 @@ Function Calling 是 Azure Open AI Service 的一项功能,旨在克服以下 Step 1 是创建用户消息。 这可以通过获取文本输入的值来动态分配,或者您可以在此处分配一个值。 如果这是您第一次使用聊天完成 API,我们需要定义消息的“角色”和“内容”。 - `role` 可以是`system` (创建规则) 、`assistant` 模型) 或`user`最终用户) 。 对于函数调用,我们将其指定为 `user` 和一个示例问题。 + `role` 可以是`system` (创建规则)、`assistant` 模型)或`user`最终用户)。 对于函数调用,我们将其指定为 `user` 和一个示例问题。 ```python diff --git a/12-designing-ux-for-ai-applications/translations/cn/README.md b/12-designing-ux-for-ai-applications/translations/cn/README.md index 55a093fbf..0b056b2f6 100644 --- a/12-designing-ux-for-ai-applications/translations/cn/README.md +++ b/12-designing-ux-for-ai-applications/translations/cn/README.md @@ -10,7 +10,7 @@ ## 本章概述 -用户体验是指用户如何与特定产品或服务(无论是系统、工具还是设计) 进行交互和使用。 在开发人工智能应用程序时,开发人员不仅注重确保用户体验有效,而且注重道德。 在本课程中,我们将介绍如何构建满足用户需求的人工智能 (AI) 应用程序。 +用户体验是指用户如何与特定产品或服务(无论是系统、工具还是设计)进行交互和使用。 在开发人工智能应用程序时,开发人员不仅注重确保用户体验有效,而且注重道德。 在本课程中,我们将介绍如何构建满足用户需求的人工智能 (AI) 应用程序。 本课程将包含以下内容: @@ -63,7 +63,7 @@ ### 可解释性 -当人工智能帮助做出决策(例如向后代传授知识) 时,教师和家长了解人工智能决策是如何做出的至关重要。 这就是可解释性——理解人工智能应用程序如何做出决策。 可解释性设计包括添加人工智能应用程序可以做什么的示例的详细信息。 例如,系统可以使用:“使用 AI 总结笔记以便更轻松地复习”,而不是“开始使用 AI 教师”。 +当人工智能帮助做出决策(例如向后代传授知识)时,教师和家长了解人工智能决策是如何做出的至关重要。 这就是可解释性——理解人工智能应用程序如何做出决策。 可解释性设计包括添加人工智能应用程序可以做什么的示例的详细信息。 例如,系统可以使用:“使用 AI 总结笔记以便更轻松地复习”,而不是“开始使用 AI 教师”。 ![一个应用程序登陆页面,清楚地说明人工智能应用程序中的可解释性](../../images/explanability-in-ai.png?WT.mc_id=academic-105485-koreyst) @@ -98,7 +98,7 @@ Bing 中允许用户控制应用程序的另一个功能是能够选择加入和 ![提供反馈和处理错误](../../images/feedback-loops.png?WT.mc_id=academic-105485-koreyst) -系统错误在用户可能需要人工智能范围之外的信息帮助或者应用程序可能限制用户可以生成摘要的问题/主题的应用程序中很常见。 例如,使用有限科目(例如历史和数学) 的数据训练的人工智能应用程序可能无法处理有关地理的问题。 为了缓解这种情况,人工智能系统可以给出这样的响应:“抱歉,我们的产品已经接受了以下主题的数据训练......,我无法回答您提出的问题。” +系统错误在用户可能需要人工智能范围之外的信息帮助或者应用程序可能限制用户可以生成摘要的问题/主题的应用程序中很常见。 例如,使用有限科目(例如历史和数学)的数据训练的人工智能应用程序可能无法处理有关地理的问题。 为了缓解这种情况,人工智能系统可以给出这样的响应:“抱歉,我们的产品已经接受了以下主题的数据训练......,我无法回答您提出的问题。” 人工智能应用并不完美,因此,它们难免会犯错误。 在设计应用程序时,您应该确保以简单且易于解释的方式为用户反馈和错误处理留出空间。