科学工具
科学工具让世界更美好
让世界更美好
大语言模型
大语言模型LLManager 用于管理审批请求的 LangGraph 工作流
LLManager 是用于管理审批请求的 LangGraph 工作流,使用反射来随着时间的推移进行改进和学习,通过动态提示组合来处理各种审批请求。使用方法LLManager 可以通过设置两个自定义字段进行配置:approvalCriteria 和 rejectionCriteria。这些字段在图的配置对象中设置,可以与特定的助手关联,用于审批流程中,用来确定是否批准或拒绝请求。虽然不需要设置这些字段,因为 LLManager 会从过去的经验中学习并相应地更新其提示,但设置它们可以帮助模型做出更明智的决策
大语言模型
大语言模型
大语言模型DeepResearcher基于强化学习的框架,端到端地训练基于LLM(大型语言模型)的深度研究代理
DeepResearcher是通过强化学习在真实环境中扩展基于大型语言模型的深度研究代理的端到端训练框架,能利用真实的网页搜索交互来增强模型的能力。DeepResearcher可以在huggingface-hub上使用,用户可以通过以下命令安装所需的依赖项:git clone https://github.com/GAIR-NLP/DeepResearcher.gitconda create -n deepresearcher python=3.10conda activate deepresearch
大语言模型
大语言模型MCP Server for Milvus 让LLM应用可以通过模型上下文协议(MCP)访问Milvus向量数据库的功能
MCP Server for Milvus 通过 Model Context Protocol (MCP) 将大型语言模型 (LLM) 应用,比如 Claude Desktop 和 Cursor,与 Milvus 向量数据库连接起来,允许 LLM 利用 Milvus 的向量搜索和数据存储能力,提升 LLM 应用的性能和功能。MCP协议作为开放标准协议,致力于消除LLM应用与传统数据源之间的交互壁垒,Milvus MCP服务器作为具体实现,通过标准化接口实现以下核心能力:1、支持向量相似度检索2、提供结构
大语言模型
大语言模型Llama3从零开始实现指南
Llama3从零实现指南通过逐行代码解析,展示了如何基于Meta开源的Llama3模型权重实现完整的推理流程。项目介绍1、模型权重加载与配置解析从Meta官方下载的模型文件(如consolidated.00.pth和params.json)中加载张量,解析关键参数:model = torch.load("Meta-Llama-3-8B/consolidated.00.pth")config = json.load(open("Meta-Llama-3-8B/params.json"))dim = con
大语言模型
大语言模型FlashMLA专为Hopper架构GPU设计的高效解码内核
FlashMLA是一个专为Hopper架构GPU设计的高效解码内核,特别优化了大模型推理阶段的性能,能够显著提升AI推理计算的效率,主要应用于深度学习模型的推理阶段,针对可变长度序列的解码问题进行了深度优化,特别适合处理大规模的AI模型。FlashMLA功能• 性能优化:优化了推理阶段的计算性能,特别是在大模型处理上展现了优越性。• 深度学习应用:专为AI推理任务设计,特别适合处理变长序列等复杂数据。• 快速响应:针对高性能GPU架构优化,能够在大规模数据处理时提供更快的响应速度。• 应用场景:适用于需
大语言模型
大语言模型赤兔 Chitu 高性能大语言模型推理框架
赤兔Chitu 是一个专为大语言模型设计的高性能推理框架,强调效率、灵活性和可用性,支持多种主流大语言模型,包括 DeepSeek、LLaMA 系列、Mixtral 等。Chitu 持续集成和开发最新的优化技术,包括 GPU 内核、并行策略和量化方法,以提升大语言模型的推理性能。Chitu 支持流行的 NVIDIA GPU,特别关注各种硬件环境,包括旧款 GPU、非 NVIDIA GPU 和 CPU,目的是提供一个通用的框架,以适应多样化的部署需求。性能评估Chitu 在 NVIDIA A800 40G
1