🚀如何使用抱抱脸和 LangChain 在本地使用人工智能
Photo by Radowan Nakif Rehan on Unsplash
“智力的衡量标准是改变的能力。” — 阿尔伯特·爱因斯坦
人工智能在近年来有了显著的发展,但许多用户仍然依赖于 cloud-based models 例如 ChatGPT、DeepSeek 或 Claude 来处理自然语言任务。然而,这种依赖也带来了若干缺点。
❌ 使用基于云的 AI 模型的问题
- 隐私与安全风险 🛑: 您的数据被发送到第三方服务器,这对于敏感或专有信息可能会造成问题。
- 高成本 💰: 访问先进的 AI 模型可能很昂贵,特别是在使用量增加时。
- 延迟与连接问题 🌍: 基于云的 AI 依赖于稳定的互联网连接,这对于实时应用并不理想。
- 外部依赖 🔗: 如果您依赖的云服务更改其政策、提高价格或关闭,您的访问可能会受到影响。
解决方案? 本地运行 AI 模型。这就是 Hugging Face 和 LangChain 发挥作用的地方。
🧠 什么是 Hugging Face,它有什么用途?
Hugging Face 是一个开源平台,提供数千个 免费的 AI 模型,用于各种应用:
✅ 自然语言处理 (NLP) ✅ 文本生成 ✅ 机器翻译 ✅ 文本分类 ✅ 情感分析
Hugging Face 的 Transformers 库使得在 Python 中使用这些模型变得极其简单。您可以通过以下方式安装它:
🔹 示例:文本摘要
这是一个简单的示例,展示如何使用 Hugging Face 在仅几行代码中总结文本:
from transformers import pipeline
summarizer = pipeline(“summarization”, model=“facebook/bart-large-cnn”)
text = “Artificial intelligence is revolutionizing multiple industries…”
summary = summarizer(text, max_length=50, min_length=10, do_sample=False)
print(summary[0][‘summary_text’])
这将自动下载并在您的机器上本地运行该模型。
🔗 什么是 LangChain,它如何增强 Hugging Face?
LangChain 是一个 Python 框架,简化了 AI 模型与工作流的 集成。
使用 LangChain,您可以:✅ 将多个 AI 模型 连接到一个应用程序 ✅ 添加记忆 以保留之前的交互 ✅ 实现高级提示工程 ✅ 将 AI 与数据库、API 和外部工具集成
要安装它,请使用:
🔹 示例:将 Hugging Face 连接到 LangChain
让我们将一个 Hugging Face 模型包装在 LangChain 中,以增强其功能:
from langchain.llms import HuggingFacePipeline
from transformers import pipeline
model_pipeline = pipeline(“text-generation”, model=“mistralai/Mistral-7B-v0.1”)
llm = HuggingFacePipeline(pipeline=model_pipeline)
prompt = “Explain Einstein’s theory of relativity in simple terms.” response = llm.invoke(prompt)
print(response)
这个设置使得扩展和组合 AI 模型与其他组件变得更加容易。
🔥 结合AI模型以实现高级应用
LangChain的一个最大优势是它能够将多个模型串联在一起以创建强大的AI工作流程。
一个实际的例子是:
- 文本摘要 📄 → 使用Hugging Face模型缩短长文档。
- 精炼 ✍️ → 次级模型提高摘要的连贯性。
- 问答 ❓ → 问答模型允许用户从摘要文本中提取相关见解。
以下是如何实现这一点:
from langchain.chains import LLMChain
from langchain.prompts import PromptTemplate
from langchain.llms import HuggingFacePipeline
from transformers import pipeline
summarizer = pipeline("summarization", model="facebook/bart-large-cnn")
refiner = pipeline("text-generation", model="gpt2")
qa_model = pipeline("question-answering", model="distilbert-base-cased-distilled-squad")
summary_template = PromptTemplate(template="Summarize this text in {length} words: {text}")
qa_template = PromptTemplate(template="Based on this summary: {summary}, answer the question: {question}")
summary_chain = LLMChain(llm=HuggingFacePipeline(pipeline=summarizer), prompt=summary_template)
qa_chain = LLMChain(llm=HuggingFacePipeline(pipeline=qa_model), prompt=qa_template)
text_to_summarize = "Artificial intelligence is transforming healthcare..."
summary = summary_chain.invoke({"text": text_to_summarize, "length": "50"})
answer = qa_chain.invoke({"summary": summary, "question": "How is AI used in healthcare?"})
print(f"Summary: {summary}")
print(f"Answer: {answer}")
这个管道有效地总结、增强和提取信息。
🌟 用例:如何应用这些工具
现在我们了解了 Hugging Face 和 LangChain,让我们探索 实际应用,看看它们可以如何有效地使用:
📚 1. 研究与学术写作
- 总结长篇论文 📄
- 从复杂文档中提取关键信息 📑
- 自动化文献综述 🔍
📢 2. 营销与内容创作
- 生成SEO优化的博客文章 ✍️
- 创建广告文案变体 🎯
- 自动化社交媒体内容 📱
## Sample code
def hello_world():
print("Hello, world!")
🏥 3. 医疗与医学分析
- 从医学研究中提取见解 🏥
- 使用人工智能辅助医生进行问答 🩺
- 总结病历以便快速查看 📋
🏦 4. 财务与商业智能
- 分析财务报告 📊
- 总结收益电话会议和市场趋势 💹
- 自动化数据驱动的决策 🤖
🧑💻 5. 开发者生产力与AI助手
- 构建AI驱动的编码助手 👨💻
- 从代码库生成文档 📜
- 自动化数据处理与自然语言处理工作流程 🚀
🚀 结论
使用 Hugging Face 和 LangChain 在 本地 运行 AI 消除了对云的依赖,并提供了: ✅ 更高的隐私和安全性 🔒 ✅ 更低的运营成本 💰 ✅ 更快的处理速度 ⚡ ✅ 更灵活的集成 🚀
如果您正在构建 AI 驱动的应用程序,利用 Hugging Face & LangChain 是您可以做出的最明智的选择之一。今天就开始探索,提升您的 AI 项目到一个新层次! 💡
- Datacamp 平台
- 在 Linkedin 上关注我 https://www.linkedin.com/in/kevin-meneses-897a28127/
- Medium https://medium.com/@kevinmenesesgonzalez/subscribe
- 订阅 Data Pulse 新闻通讯 https://www.linkedin.com/newsletters/datapulse-python-finance-7208914833608478720
- 加入我的 Patreon 社区 https://patreon.com/user?u=29567141&utm_medium=unknown&utm_source=join_link&utm_campaign=creatorshare_creator&utm_content=copyLink