远程合作|寻找 Python 工程师开发 AI 对话系统(多层记忆 + 工具任务)
正文需求
我们正在开发一套 AI 客户支持系统(AI Support Agent)。
这个系统不是简单的聊天机器人,而是包含完整逻辑结构的 AI 系统,包括:
Persona 对话控制
多层长期记忆
任务结构化处理
外部工具辅助
目前系统已经完成架构设计,现在需要工程师参与 核心模块开发。
项目模块
主要涉及三个模块。
1 对话控制
实现:
多轮对话管理
Persona 人格稳定
回复策略控制
目标是让系统在连续对话中保持稳定行为,而不是每次重新生成回答。
2 多层记忆系统
系统需要支持:
会话短期记忆
用户长期信息
历史任务记录
需要设计:
记忆写入策略
检索机制
上下文选择
3 任务结构与工具调用
系统处理流程:
User message
→ intent analysis
→ task structure
→ tool execution
→ response generation
例如:
查询数据
文件处理
信息整理
技术环境
主要技术栈:
Python
FastAPI
LLM API
向量数据库
如果有以下经验会非常加分:
AI Agent
RAG 系统
LangGraph / workflow
AI 对话系统
合作方式
远程合作
按模块开发
通过简单沟通后会提供 模块需求文档,开发者根据模块规模报价。
投递时请提供
-
GitHub 或代码样例
-
你做过的 AI 项目
-
是否做过 Agent / RAG / AI 工作流
简单技术问题
请简单回答:
1
用户说
“帮我查一下上个月所有退款记录”
系统应该如何处理这句话
请描述从输入到输出的处理流程
2
用户第一次说
“我叫李总 我们公司用的是XX系统”
三周后再次对话
系统应该如何利用这个信息
3
如果系统调用工具失败
例如数据库超时
系统应该如何处理


8


你好,Python + AI Agent 方向开发者,对这个项目非常感兴趣。
相关项目经验:
技术栈:Python / FastAPI / Claude API / 向量数据库 / AI Agent / RAG / workflow
回答技术问题:
Q1: 用户说"帮我查一下上个月所有退款记录"
用户输入 → LLM 做 intent 识别(查询类)→ 实体提取(时间=上月,对象=退款记录)→ 构造结构化 query → 调用数据库查询工具执行 → 结果格式化 → LLM 生成自然语言回复返回用户。关键在于 intent 到 tool call 的映射需要稳定可靠,通过 structured output 约束 LLM 输出格式。
Q2: 用户说"我叫李总,我们公司用的是XX系统",三周后再次对话
首次对话时将用户信息(身份、公司、使用系统)写入长期记忆层(向量数据库 + 结构化存储),打上实体标签。后续对话时,系统先检索该用户 profile 注入 context,即可自然地延续上下文:"李总您好,上次提到贵司用的XX系统...",保证跨会话的连贯体验。这正是我在 LIFEE 项目中实现的多层记忆架构。
Q3: 工具调用失败(如数据库超时)
分层处理:① 自动重试 1-2 次(指数退避);② 仍失败则降级处理——告知用户"系统正在处理中,稍后反馈",同时将任务入队异步重试;③ 记录失败日志用于排查。核心原则是不让用户看到裸报错,保持对话体验流畅。
最后修改于
1 query - tool_loop - answer
2 没有记录这种数据的必要,多余的设计
3 记录log,返回系统繁忙。内部链接池本就有重试,没必要再试。
Python后端+AI方向,做过Agent和RAG,对这个项目很感兴趣,简单回答下三个技术问题:
"查上个月退款记录":用户输入 → LLM做intent识别(查询类)→ 提取实体(时间=上月,对象=退款)→ 构造结构化query → 调用数据库工具执行 → 结果格式化 → LLM生成自然语言回复返回用户。关键是intent到tool call的映射要稳定。
用户信息复用:首次对话时将"李总/XX系统"写入用户长期记忆(向量库+结构化存储),打上实体标签。三周后对话时,先检索该用户profile注入context,系统就能自然地说"李总您好,上次提到贵司用的XX系统...",体验连贯。
工具调用失败:设计重试+降级机制。第一步:自动重试1-2次(指数退避);仍失败则降级:告知用户"系统正在处理中,稍后反馈",同时将该任务入队异步重试;记录失败日志供排查。核心是不能让用户看到裸报错。
技术栈匹配:Python/FastAPI/LangChain/向量数据库都在用,可以按模块报价合作。
我是一名拥有近 6 年经验的资深前端工程师,曾统筹团队前端基建(主导 GitLab CI/CD 落地)、攻坚过复杂的 BPMN 业务审批流与极耗性能的海量数据可视化面板。
在扎实的前端底盘之上,我目前已深度转型为 AI 全栈工程师,专注于解决大模型产品落地中的工程化痛点。 随信附上我近期独立打通全栈并部署上线的两个商业级 AI 项目,欢迎直接体验:
● 🔗 AxiomSchema (全栈 AI SaaS 引擎):https://www.axiomschema.top
○ 技术亮点: 使用 Vue3 + Python FastAPI 彻底前后端解耦,成功突破了 Serverless 部署大模型推理的 10 秒超时瓶颈;并基于 Clerk JWT 实现了严密的多租户行级数据隔离。
● 🔗 traceRAG (高阶 AI 知识库系统):https://www.tracerag.top
○ 技术亮点: 落地 TopK + MMR 高阶检索策略,并通过“精准补丁”与 Query Rewrite 优化,大幅降低了 Token 消耗并解决了大模型幻觉问题。
没有rag的经验,其他的我有
寻找有实力的数据这块,有的话联系
你好,我之前是基础医疗的,中、西医模型微调落地,智能客服,rag问答系统都有实际落地经验,之前公司也是头一批将ai应用落地的;您可以搜索到:ABC数字医疗云,这个是我们的产品,您提到的agent/rag/工作流在我这里都是有实际落地经验的;
问题回答:
1.首先采用小模型对问题进行意图识别、实体提取,然后确定意图走到对应的工作流,然后调用本地集成的tool,将提取到的实体条件根据提示词转化为SQL的拼接条件,然后查询问题范围的数据内容
2.我会想到使用langgraph的checkpointer+本地消息表,将多轮对话的状态state存储,然后十五天之后获取该回话thread_id去获取到该回话的state信息(存储了历史回话的摘要等信息),然后根据获取的历史信息,继续进行对话。
3.代码编写阶段就先给每个阶段记录日志实现链路最终,然后对重要环节的增删改查、调用外部系统的步骤实现重试机制(生产一般在3-5次),重试结束还是不行就熔断降级,保留对应日志信息,并且将失败步骤的请求报文等信息用本地表存储,后续可能做定时任务补偿策略,保证系统整体健壮性。
专业软件定制开发公司承接,可以聊聊么