幻仿编程 Udemy 付费课程,独家中英字幕 + 配套资料!
限时1折特惠!课程永久访问权,随时随地学习!
开源法学硕士:使用 RAG 在本地实现不受审查且安全的人工智能
私人聊天GPT 替代方案:Llama3、Mistral 等,带有函数调用、RAG、矢量数据库、LangChain、AI-Agents
讲师:Arnold Oberleiter
您将学到什么
- 为什么要选择开源法学硕士?开源法学硕士和闭源法学硕士的区别、优点和缺点
- ChatGPT、Llama、Mistral、Phi3、Qwen2-72B-Instruct、Grok、Gemma 等法学硕士有哪些?
- 有哪些法学硕士课程可供选择?我应该选择哪一门?寻找“最佳法学硕士课程”
- 本地使用开源法学硕士的要求
- LM Studio、Anything LLM、Ollama 的安装和使用以及操作 LLM 的替代方法
- 受审查的法学硕士与不受审查的法学硕士
- 使用 Huggingface 或 Google Colab 对开源模型进行微调
- 使用开源 LLM 进行视觉(图像识别):Llama3、Llava 和 Phi3 Vision
- 硬件详细信息:GPU 卸载、CPU、RAM 和 VRAM
- 关于 HuggingChat:使用开源 LLM 的界面
- 提示工程中的系统提示 + 函数调用
- 提示工程基础:语义关联、结构化和角色提示
- Groq:使用开源 LLM 和快速 LPU 芯片代替 GPU
- 矢量数据库、嵌入模型和检索增强生成 (RAG)
- 使用 Anything LLM 和 LM Studio 创建本地 RAG 聊天机器人
- 链接 Ollama 和 Llama 3,并使用 Llama 3 和任何 LLM 进行函数调用
- 使用 Python 函数调用来汇总数据、存储和创建图表
- 使用 Anything LLM 的其他功能和外部 API
- 使用 Firecrawl 处理网站数据,使用 LlamaIndex 和 LlamaParse 处理 PDF 和 CSV 数据,打造更高效的 RAG 应用的技巧
- AI 代理的定义和可用工具、使用 Node 在本地安装和使用 Flowise(比 Langchain 和 LangGraph 更简单)
- 创建生成 Python 代码和文档的 AI 代理,并使用具有函数调用、Internet 访问和三个专家的 AI 代理
- 托管和使用:您应该构建哪个 AI 代理以及使用 Google Colab 进行外部托管和文本转语音 (TTS)
- 使用 Google Colab 对开源 LLM 进行微调(Alpaca + Llama-3 8b、Unsloth)
- 使用 Runpod 或 Massed Compute 租用 GPU
- 安全方面:越狱以及针对 LLM 的越狱、即时注入和数据中毒攻击的安全风险
- 数据隐私和安全,以及商业使用和销售生成内容的政策
显示更多显示较少
探索相关主题
- 检索增强生成 (RAG)
- 数据科学
- 发展
要求
- 无需任何先验知识;一切都会逐步展示。
- 拥有一台配有优质显卡、16 GB RAM 和 6 GB VRAM 的 PC 是有优势的(Apple M 系列、Nvidia 和 AMD 是理想的选择),但这不是强制性的。
描述
ChatGPT 很有用,但您是否注意到,有许多主题受到审查,您被推向某些政治方向,一些无害的问题得不到回答,而且我们的数据在 OpenAI 中可能不安全?这就是 Llama3、Mistral、Grok、Falkon、Phi3 和 Command R+ 等开源 LLM 可以提供帮助的地方!
您准备好掌握开源法学硕士的精髓,并充分发挥其在各种应用中的潜力了吗?从数据分析到创建聊天机器人和人工智能代理。那么本课程正适合您!
开源法学硕士简介
本课程全面介绍了开源法学硕士 (LLM) 的世界。您将了解开源和闭源模型之间的差异,并发现为什么开源法学硕士 (LLM) 是一个有吸引力的替代方案。课程将详细介绍 ChatGPT、Llama 和 Mistral 等主题。此外,您还将了解可用的法学硕士 (LLM) 以及如何根据您的需求选择最佳模型。本课程特别强调了闭源法学硕士 (LLM) 的缺点以及 Llama3 和 Mistral 等开源法学硕士 (LLM) 的优缺点。
开源法学硕士的实际应用
本课程将指导您以最简单的方式在本地运行开源 LLM,以及此设置所需的条件。您将了解先决条件、LM Studio 的安装以及操作 LLM 的替代方法。此外,您还将学习如何在 LM Studio 中使用开源模型,了解审查和未审查的 LLM 之间的区别,并探索各种用例。本课程还涵盖使用 Huggingface 或 Google Colab 对开源模型进行微调以及使用视觉模型进行图像识别。
及时工程和云部署
本课程的一个重要部分是开源 LLM 的即时工程。您将学习如何使用 HuggingChat 作为界面,在即时工程中使用系统提示,以及应用基本和高级即时工程技术。本课程还提供了有关在 HuggingChat 中创建自己的助手以及如何使用快速 LPU 芯片(而不是 GPU)的开源 LLM 的见解。
函数调用、RAG 和矢量数据库
了解 LLM 中的函数调用是什么以及如何实现矢量数据库、嵌入模型和检索增强生成 (RAG)。本课程向您展示如何安装 Anything LLM、设置本地服务器以及使用 Anything LLM 和 LM Studio 创建 RAG 聊天机器人。您还将学习使用 Llama 3 和 Anything LLM 执行函数调用、汇总数据、存储数据并使用 Python 对其进行可视化。
优化和人工智能代理
为了优化您的 RAG 应用程序,您将获得有关数据准备和有效使用 LlamaIndex 和 LlamaParse 等工具的提示。此外,您还将了解 AI 代理的世界。您将了解什么是 AI 代理、有哪些工具可用,以及如何在本地安装和使用 Node.js 的 Flowise。该课程还提供了创建生成 Python 代码和文档的 AI 代理以及使用函数调用和互联网访问的实用见解。
其他应用和技巧
最后,本课程介绍了使用 Google Colab 进行文本转语音 (TTS) 以及如何使用 Google Colab 对开源 LLM 进行微调。如果您的本地 PC 不够用,您将学习如何从 Runpod 或 Massed Compute 等提供商那里租用 GPU。此外,您还将探索 Microsoft Autogen 和 CrewAI 等创新工具以及如何使用 LangChain 开发 AI 代理。
利用开源 LLM 技术的变革力量来开发创新解决方案并扩展您对其各种应用的理解。立即注册并开始成为大型语言模型领域专家的旅程!
本课程适合哪些人:
- 对于想要学习新知识并深入研究 RAG、函数调用和 AI 代理等开源 LLM 的每个人
- 对于想要提高效率并节省资金的企业家
- 对于开发者、程序员和技术爱好者来说
- 对于那些不想受到大型科技公司限制并希望使用不受审查的人工智能的人来说
| 共 77 节课程 • 总时长 9 小时 49 分钟 | |
| 第一章 引言和概述 | |
| 1. 课程概述 | 6分58秒 |
| 2. 我的目标和一些技巧 | 4分37秒 |
| 3. 链接说明 | 3分14秒 |
| 第二章 开源大型语言模型的差异、优势与劣势 | |
| 1. 这一节是关于什么的? | 35秒 |
| 2. 像ChatGPT、Llama、Mistral等LLMs是什么? | 14分59秒 |
| 3. 哪些LLMs可用,我应该使用哪个?寻找最佳LLMs | 7分16秒 |
| 4. 闭源大型语言模型(如ChatGPT、Gemini和Claude)的缺点 | 10分44秒 |
| 5. 开源大型语言模型(如Llama3、Mistral等)的优点与缺点 | 3分30秒 |
| 6. 重述 不要忘记这点! | 3分8秒 |
| 第三章 运行开源LLMs的最简单方法及您需要准备的内容 | |
| 1. 使用本地开源LLM的要求 GPU、CPU和量化 | 7分28秒 |
| 2. 安装LM Studio和运行LLMs的替代方法 | 8分10秒 |
| 3. 在LM Studio中使用开源模型:Llama 3、Mistral、Phi-3等 | 18分51秒 |
| 4. 审查版与未审查版LLMs Llama3带海豚微调 | 7分54秒 |
| 5. 经典LLM(如Phi-3 Llama等)的使用案例 | 5分50秒 |
| 6. 视觉(图像识别)使用开源大语言模型 Llama3、Llava & Phi3 Vision | 8分7秒 |
| 7. 图像识别(视觉)的一些例子 | 8分40秒 |
| 8. 硬件GPU卸载、CPU、RAM和VRAM的更多详细信息 | 5分42秒 |
| 9. 你所学内容的总结和对本地服务器及提示工程的展望 | 5分34秒 |
| 第四章 Prompt Engineering for Open-Source LLMs and Their Use in the Cloud | |
| 1. HuggingChat 一个用于使用开源 LLM 的接口 | 8分18秒 |
| 2. 思维链提示 让我们一步一步思考 | 8分14秒 |
| 3. 思维树 (ToT) 提示在大型语言模型 (LLMs) 中 | 10分42秒 |
| 4. 提示概念的组合 | 6分44秒 |
| 5. 在HuggingChat中创建您自己的助手 | 7分51秒 |
| 6. 使用快速LPU芯片而非GPU来运行开源LLM的Groq | 4分11秒 |
| 7. 回顾你应该记住的内容 | 2分49秒 |
| 8. 系统提示是提示工程的重要组成部分 | 7分53秒 |
| 9. 为什么提示工程很重要 [一个例子] | 3分14秒 |
| 10. 语义关联 你需要理解的最重要概念 | 4分3秒 |
| 11. 结构化提示 复制我的提示 | 6分1秒 |
| 12. 指令提示和一些酷炫技巧 | 6分34秒 |
| 13. 角色提示对于大型语言模型 | 6分14秒 |
| 14. 零样本提示、单样本提示和少样本提示 | 7分27秒 |
| 15. 逆向提示工程和OK技巧 | 9分43秒 |
| 第五章 函数调用,RAG 和向量数据库使用开源 LLMs | |
| 1. 本节将涵盖哪些内容 | 1分44秒 |
| 2. 重述!不要忘记这一点! | 3分53秒 |
| 3. LLMs中的函数调用是什么 | 7分4秒 |
| 4. 向量数据库、嵌入模型与检索增强生成(RAG) | 11分58秒 |
| 5. 安装 Anything LLM 并为 RAG 管道设置本地服务器 | 12分6秒 |
| 6. 本地RAG聊天机器人,使用Anything LLM & LM Studio | 15分28秒 |
| 7. 使用Llama 3 & 任何LLM调用函数(搜索互联网) | 7分53秒 |
| 8. 函数调用、数据摘要、使用Python存储和创建图表 | 7分58秒 |
| 9. Anything LLM TTS 的其他功能和外部 API | 12分10秒 |
| 10. 下载Ollama和Llama 3,创建并链接本地服务器 | 13分34秒 |
| 第六章 优化RAG应用程序:数据准备技巧 | |
| 1. 本节将涵盖哪些内容?更好的 RAG、数据与分块 | 1分15秒 |
| 2. 更好的RAG应用程序技巧:Firecrawl为您从网站获取数据 | 4分27秒 |
| 3. 更高效的 RAG,使用 LlamaIndex & LlamaParse 进行 PDF 及其他数据准备 | 12分32秒 |
| 4. 块大小和块重叠以改进RAG应用程序 | 8分57秒 |
| 5. 回顾本节所学内容 | 2分35秒 |
| 第七章 本地AI代理,使用开源LLMs | |
| 1. 本节将涵盖哪些关于AI代理的内容 | 1分56秒 |
| 2. 使用 Huggingface 的开源模型和 HTML 中的嵌入(Mixtral)的聊天机器人 | 8分37秒 |
| 3. 使用Groq API实现疯狂快速推理 | 8分27秒 |
| 4. 总结你应该记住的内容 | 4分29秒 |
| 5. AI代理的定义与创建开源AI代理的可用工具 | 14分10秒 |
| 6. 我们使用Langchain与Flowise,在本地使用Node.js | 5分42秒 |
| 7. 使用Node.js(JavaScript运行时环境)安装Flowise | 7分7秒 |
| 8. Flowise界面用于AI代理和RAG聊天机器人 | 5分25秒 |
| 9. 本地 RAG 聊天机器人,使用 Flowise、LLama3 和 Ollama,一个本地 Langchain 应用程序 | 16分39秒 |
| 10. 我们的第一个AI代理Python代码和文档,使用Superwicer和2个Worker | 15分7秒 |
| 11. 具有函数调用、互联网和三位专家的社交媒体代理 | 16分33秒 |
| 12. 您应该为哪个AI代理构建与Render的外部托管? | 12分31秒 |
| 第八章 微调,租用GPU,开源语音合成,寻找最佳的LLM及其他技巧 | |
| 1. 这一部分是关于什么的? | 2分6秒 |
| 2. 回顾你应该记住的内容! | 6分6秒 |
| 3. 文本到语音(Text-to-Speech,TTS)与Google Colab | 8分38秒 |
| 4. 与开源AI进行Moshi Talk | 4分20秒 |
| 5. 使用Huggingface或Google Colab微调开源模型 | 5分59秒 |
| 6. 使用Google Colab微调开源LLMs,结合Alpaca和Unsloth的Llama-3 8b | 22分51秒 |
| 7. 我应该使用哪个最佳的Open-Source LLM? | 4分3秒 |
| 8. Llama 3.1 信息以及您应该使用哪些模型 | 3分42秒 |
| 9. 从 xAI 理解 Grok | 4分9秒 |
| 10. 如果您的本地电脑不够用,可以通过Runpod或Massed Compute租用GPU | 7分28秒 |
| 第九章 数据隐私、安全及未来展望 | |
| 1. 最后一节 关于什么 | 1分50秒 |
| 2. 利用提示词对大型语言模型(LLMs)攻击所带来的越狱安全风险 | 12分2秒 |
| 3. 提示注入LLMs安全问题 | 8分31秒 |
| 4. 数据中毒和后门攻击 | 3分45秒 |
| 5. 数据隐私和安全 您的数据有风险吗 | 8分13秒 |
| 6. 商业使用和销售AI生成内容 | 8分40秒 |
| 7. 我的感谢和接下来要做什么 | 4分56秒 |
| 1. 关于课程更新与获取 如何获取本站课程? ○ 免费获取方式:在本站签到、评论、发布文章等可获取积分,通过积分购买课程。 ○ 付费获取方式:购买本站【月度会员】或【永久会员】。 课程购买后是否支持更新? ○ 是的,所有课程均提供免费更新服务。 我们致力于为您提供持续的学习支持。 如何获取更新? ○ 单独购买的课程: 您可在“个人中心”随时查看购买记录及最新下载链接,轻松获取免费更新。 ○ 永久会员: 您可在相关页面直接查看最新下载地址,随时免费获取更新。 ○ 非永久会员(重要提示):通过会员权限下载的课程,在“个人中心”可能不显示具体订单记录。 因此,会员到期后,您将无法通过“个人中心”查看最新下载链接。 ① 解决方案建议:续费会员: 恢复会员权限后,即可再次查看所有最新下载链接。 ② 妥善保存下载链接: 我们强烈建议您在会员有效期内,保存好本站分享的课程下载链接。通常,课程更新内容会直接补充到原有分享链接中。 |
| 2. 关于课程资料 课程下载后资料是否齐全? ○ 绝大部分课程资料齐全。 我们尽力确保您获得完整的学习资源。 ○ 少数情况说明: 极少数课程可能存在资料缺失情况。针对 Udemy 课程,资料形式多样,请知悉:本地文件(随视频下载): 此类课件通常随视频一并提供,下载即得。 ① 本地文件(含链接): 课件文件中会提供资料下载链接,您需自行访问链接下载。此类资料通常也可获取。 ② 在线平台存储(如 GitHub): 讲师会在视频中说明资料获取方式(如访问特定平台),请您按指引自行下载。 ③ Udemy 平台内资料: 部分资料需登录您在 Udemy 购买的账号才能查看。此类资料本站无法提供,除非您自行在 Udemy 平台购买该课程。 |
| 3. 关于课程字幕 是否提供中英文双字幕?原本无字幕的课程是否支持? ○ 是的,本站下载的所有课程均提供中英文双字幕,包括 Udemy 原本无任何字幕的课程。 我们致力于提升您的学习体验。 Udemy 字幕现状与本站服务: ○ Udemy 绝大多数课程本身不提供任何字幕。在少数提供字幕的课程中,也几乎不提供中文字幕。 本站字幕服务流程: ① Udemy 有字幕: 我们会将其翻译成中文字幕,与英文字幕一同提供。 ② Udemy 无字幕: 我们会通过技术手段识别生成英文字幕,再翻译成中文字幕,一同提供给您。 字幕服务重要说明(请您理解): ○ 翻译精度: 字幕翻译采用谷歌翻译引擎完成,虽不及人工翻译精准,但足以保障您正常学习理解。 ○ 若您仍然觉得字幕精度较低: 可联系站长针对性润色字幕(该服务仅限本站会员)。 |
| 4. 关于视频存储与使用 视频存储位置与观看/下载方式? 本站所有课程视频均存储于网盘平台。 您支持在线观看: 可在网盘内直接播放学习。 您支持下载: 可将视频下载至本地,使用播放器播放,更灵活便捷。 主要存储网盘:百度网盘 视频格式与加密情况? 本站所有课程视频均以 MP4 或 MKV 通用格式提供。 视频文件不加密,您可自由分享(请遵守相关法律法规)。 播放建议: 使用本地播放器(如 PotPlayer)播放时,可同时加载中英文字幕文件,学习体验更佳。您可参考我们提供的《PotPlayer 挂载中英双字幕教程》。 |
| 5. 关于售后支持与退款政策 遇到问题如何联系? 无论您在购买前或购买后遇到任何疑问,都欢迎随时联系站长。 我们将竭诚为您服务。 退款政策说明: 原则: 由于虚拟商品(课程、资料等)具有可复制性,一旦购买成功并完成下载,原则上不支持退款。 请您在购买前仔细阅读课程介绍、资料说明及本条款,确认符合您的需求。 如有不确定之处,欢迎先行咨询站长。 |



























暂无评论内容