科学工具
科学工具让世界更美好
让世界更美好

LLM 应用开发平台 Dify,支持AI 工作流、RAG 管道、Agent、模型管理LLM 应用开发平台 Dify,支持AI 工作流、RAG 管道、Agent、模型管理

Dify是一款开源的LLM应用开发平台,整合了AI工作流、RAG流水线、智能体功能、模型管理、可观测性等特性,能让用户快速完成从原型到生产的流程。

安装Dify前,需确保机器满足最低系统要求: • CPU ≥ 2核 • 内存 ≥ 4GiB

启动Dify服务器最简单的方式是通过docker compose,运行以下命令前,要确认机器上已安装Docker和Docker Compose:

cd dify
cd docker
cp .env.example .env
docker compose up -d

运行后,在浏览器中访问http://localhost/install就能打开Dify控制面板,然后开始初始化流程。

Dify核心功能

1、工作流:在可视化画布上构建和测试强大的AI工作流,还能利用以下所有功能及更多功能。

2、全面的模型支持:与来自数十家推理提供商和自托管解决方案的数百个专有/开源LLM无缝集成,包括GPT、Mistral、Llama3以及任何与OpenAI API兼容的模型。支持的模型提供商完整列表可在这里查看,部分如下:OpenRouter、TONGYI、olama、Hugging Face、LocalAI、OpenLLM、ZHIPU-AI、Feplicate、Azure OpenAl Service、ANTHROP\C、groqcloud、aws、SageMaker、Yi 01.Al、Bedrock、OpenAI、cohere、together.ai、Xorbits Inference、WENXIN YIYAN、Moonshot Al、Gemini、MSTRAL、Jine、ChatGLM

3、Prompt IDE:直观的界面可用于设计提示词、比较模型性能,能为基于聊天的应用添加文本转语音等额外功能。

4、RAG流水线:丰富的RAG功能涵盖从文档摄入到检索的各个环节,自带对PDF、PPT等常见文档格式的文本提取支持。

5、智能体功能:可以基于LLM函数调用或ReAct定义智能体,能为智能体添加预制或自定义工具。Dify为AI智能体提供50多种内置工具,比如Google搜索、DALL·E、Stable Diffusion和WolframAlpha。

6、LLMOps:长期监控和分析应用日志及性能,可以根据生产数据和注释不断改进提示词、数据集和模型。

7、后端即服务:Dify的所有功能都有对应的API,能轻松将Dify集成到自己的业务逻辑中。

功能对比

功能 Dify.AI LangChain Flowise OpenAI Assistants API
编程方式 API + 面向应用 Python代码 面向应用 面向API
支持的LLM 丰富多样 丰富多样 丰富多样 仅支持OpenAI
RAG引擎
智能体
工作流
可观测性
企业功能(SSO/访问控制)
本地部署

使用Dify

云服务:官方提供Dify云服务,无需设置就能试用,具备自部署版本的所有功能,沙盒计划包含200次免费的GPT-4调用。

自托管社区版:通过入门指南能快速在自己的环境中运行Dify,可参考文档获取更多参考信息和详细说明。

企业/组织版:提供额外的企业级功能,可以通过聊天机器人提交问题,或发送电子邮件讨论企业需求。

• 对于使用AWS的初创企业和小型企业,可以查看AWS Marketplace上的Dify Premium,一键部署到自己的AWS VPC。这是一款价格合理的AMI产品,支持创建带有自定义logo和品牌的应用。

如果需要自定义配置,可以参考.env.example文件中的注释,在.env文件中更新相应的值,可能需要根据具体的部署环境和需求调整docker-compose.yaml文件,比如更改镜像版本、端口映射或卷挂载。修改后,重新运行docker-compose up -d即可。

Dify安装部署

使用Terraform部署:通过terraform一键将Dify部署到云平台

• Azure全球:@nikawang 提供的Azure Terraform

• 谷歌云:@sotazum 提供的谷歌云Terraform

使用AWS CDK部署:通过CDK将Dify部署到AWS,@KevinZhao 提供了AWS CDK相关内容