大语言模型 (LLM) 基于包含数十亿个 Token 的数据集训练而来,能够生成高质量的内容。它们是众多最热门 AI 应用的核心支撑技术,包括聊天机器人、智能助手、代码生成工具等。
当前,使用 LLM 的便捷方式之一是通过 AnythingLLM。这是一款专为 AI 爱好者打造的桌面应用,能够直接在用户的 PC 上为其提供集众多功能于一体且注重隐私保护的 AI 助手。
随着 NVIDIA GeForce RTX 和 NVIDIA RTX PRO GPU 新增对 NVIDIA NIM 微服务的支持,AnythingLLM 用户可享受更快的性能体验,从而以更快的响应速度运行本地 AI 工作流。
AnythingLLM 是什么?
AnythingLLM 是一款集众多功能于一身的 AI 应用,可供用户运行本地 LLM、检索增强生成 (RAG) 系统和代理式工具。
它在用户选定的大语言模型与其数据之间起到桥梁作用,可以使用各类工具 (即“技能”),从而能够更轻松高效地将大语言模型应用于特定任务,例如:
- 问题解答:无需产生额外成本,即可从 Llama、DeepSeek R1 等顶尖大语言模型获取问题的解答。
- 个人数据查询:使用检索增强生成 (RAG) 对 PDF、Word 文件、代码库等内容进行隐私提问。
- 文档摘要:为长文档 (如研究论文) 生成摘要。
- 数据分析:通过加载文件并使用大语言模型对其进行查询来提取数据洞见。
- 代理式操作:使用本地或远程资源对内容进行动态研究,并根据用户提示词运行生成式工具及操作。
AnythingLLM 能够连接各类开源本地大语言模型,也可以连接规模更大的云端大语言模型,包括 OpenAI、微软与 Anthropic 旗下的模型。此外,该应用还通过其社区中心提供了各种技能(skills),用以扩展代理式 AI 的功能。
AnythingLLM 支持一键安装,且可作为独立应用或浏览器扩展程序发布,无需复杂设置即可提供直观易用的体验,是 AI 爱好者 (特别是 GeForce RTX 和 NVIDIA RTX PRO GPU 用户) 的绝佳选择。
RTX 为 AnythingLLM 提供加速
GeForce RTX 与 NVIDIA RTX PRO GPU 能够大幅提升 AnythingLLM 中 LLM 与智能体的运行性能,通过专为加速 AI 而设计的 Tensor Core 加速推理。
AnythingLLM 通过 Ollama 运行 LLM,并通过 Llama.cpp 及 GGML 机器学习张量库加速端侧执行。
Ollama、Llama.cpp 和 GGML 针对 NVIDIA RTX GPU 和第五代 Tensor Core 进行了优化。
随着 NVIDIA 不断推出新的 NIM 微服务和参考工作流 (例如其日益壮大的 AI Blueprint 库),像 AnythingLLM 这样的工具将解锁更丰富的多模态 AI 用例。
AnythingLLM — 现已支持 NVIDIA NIM
AnythingLLM 最近新增 NVIDIA NIM 微服务 (性能经过优化的预打包生成式 AI 模型) 支持,助力用户在 RTX AI PC 上通过精简易用的 API 轻松启动 AI 工作流。
对于希望在工作流中对生成式 AI 模型进行快速测试的开发者而言,NVIDIA NIM 非常实用。用户无需自行寻找最适用的模型、下载全部文件并为所有组件设置连接,因为 NVIDIA NIM 微服务提供了包含一切必需组件的单一容器。此外,它们在云端与 PC 端均可运行,因而便于开发者在本地完成原型设计,然后再部署到云端。
这些微服务均可以通过 AnythingLLM 用户友好型界面使用,让用户可以快速测试与实验。随后,用户可以利用 AnythingLLM 将其连接至工作流,也可以通过 NVIDIA AI Blueprint、NIM 文档及示例代码将其直接集成到相关应用或项目中。
敬请探索丰富多样的 NIM 微服务,了解它们如何为各类 AI 赋能工作流带来效能提升,包括语言与图像生成、计算机视觉、语音处理等。
每周,RTX AI Garage 博客系列都会分享由社区推动的 AI 创新与内容,面向希望深入了解 NIM 微服务、AI Blueprint,以及如何在 AI PC 和工作站上构建 AI 智能体、创意工作流、数字人、生产力应用等的用户。
欢迎关注 NVIDIA 在微博、微信和哔哩哔哩的官方账号,获取最新资讯请订阅 RTX AI PC 新闻通讯。
请参阅有关软件产品信息的通知。