社区帖子招聘远程合作|寻找 Python 工程师开发 AI 对话系统(多层记忆 + 工具任务)

头像
137****5900
318阅读8评论

远程合作|寻找 Python 工程师开发 AI 对话系统(多层记忆 + 工具任务)


正文需求

我们正在开发一套 AI 客户支持系统(AI Support Agent)。

这个系统不是简单的聊天机器人,而是包含完整逻辑结构的 AI 系统,包括:

Persona 对话控制

多层长期记忆

任务结构化处理

外部工具辅助

目前系统已经完成架构设计,现在需要工程师参与 核心模块开发。


项目模块

主要涉及三个模块。

1 对话控制

实现:

多轮对话管理

Persona 人格稳定

回复策略控制

目标是让系统在连续对话中保持稳定行为,而不是每次重新生成回答。


2 多层记忆系统

系统需要支持:

会话短期记忆

用户长期信息

历史任务记录

需要设计:

记忆写入策略

检索机制

上下文选择


3 任务结构与工具调用

系统处理流程:

User message
→ intent analysis
→ task structure
→ tool execution
→ response generation

例如:

查询数据

文件处理

信息整理


技术环境

主要技术栈:

Python
FastAPI
LLM API
向量数据库

如果有以下经验会非常加分:

AI Agent

RAG 系统

LangGraph / workflow

AI 对话系统


合作方式

远程合作
按模块开发

通过简单沟通后会提供 模块需求文档,开发者根据模块规模报价。


投递时请提供

  1. GitHub 或代码样例

  2. 你做过的 AI 项目

  3. 是否做过 Agent / RAG / AI 工作流


简单技术问题

请简单回答:

1

用户说
“帮我查一下上个月所有退款记录”

系统应该如何处理这句话
请描述从输入到输出的处理流程


2

用户第一次说
“我叫李总 我们公司用的是XX系统”

三周后再次对话
系统应该如何利用这个信息


3

如果系统调用工具失败
例如数据库超时
系统应该如何处理


招聘类型:
职业:
工作方式:
需消耗电量 5
收藏
举报
精选评论
头像
等级0

你好,Python + AI Agent 方向开发者,对这个项目非常感兴趣。

相关项目经验:

  • LIFEE(Google Hackathon 项目):多 AI 人格辩论系统,实现了 Persona 对话控制、多角色人格稳定性、多轮对话管理、LLM API 集成、RAG 检索增强生成以及多层记忆系统(短期会话记忆 + 长期用户记忆),与本项目的三大核心模块(对话控制、多层记忆、工具调用)高度匹配。
  • Boss Agent:基于 Python 的智能 Agent 系统,包含状态管理、意图分类(LLM 驱动)、工具调用链、消息协议对接和通知系统,完整覆盖了 intent → task → tool → response 的 Agent 工作流。

技术栈:Python / FastAPI / Claude API / 向量数据库 / AI Agent / RAG / workflow

回答技术问题:

Q1: 用户说"帮我查一下上个月所有退款记录"
用户输入 → LLM 做 intent 识别(查询类)→ 实体提取(时间=上月,对象=退款记录)→ 构造结构化 query → 调用数据库查询工具执行 → 结果格式化 → LLM 生成自然语言回复返回用户。关键在于 intent 到 tool call 的映射需要稳定可靠,通过 structured output 约束 LLM 输出格式。

Q2: 用户说"我叫李总,我们公司用的是XX系统",三周后再次对话
首次对话时将用户信息(身份、公司、使用系统)写入长期记忆层(向量数据库 + 结构化存储),打上实体标签。后续对话时,系统先检索该用户 profile 注入 context,即可自然地延续上下文:"李总您好,上次提到贵司用的XX系统...",保证跨会话的连贯体验。这正是我在 LIFEE 项目中实现的多层记忆架构。

Q3: 工具调用失败(如数据库超时)
分层处理:① 自动重试 1-2 次(指数退避);② 仍失败则降级处理——告知用户"系统正在处理中,稍后反馈",同时将任务入队异步重试;③ 记录失败日志用于排查。核心原则是不让用户看到裸报错,保持对话体验流畅。

最后修改于

头像
等级0

1 query - tool_loop - answer
2 没有记录这种数据的必要,多余的设计
3 记录log,返回系统繁忙。内部链接池本就有重试,没必要再试。

头像
等级0

Python后端+AI方向,做过Agent和RAG,对这个项目很感兴趣,简单回答下三个技术问题:

  1. "查上个月退款记录":用户输入 → LLM做intent识别(查询类)→ 提取实体(时间=上月,对象=退款)→ 构造结构化query → 调用数据库工具执行 → 结果格式化 → LLM生成自然语言回复返回用户。关键是intent到tool call的映射要稳定。

  2. 用户信息复用:首次对话时将"李总/XX系统"写入用户长期记忆(向量库+结构化存储),打上实体标签。三周后对话时,先检索该用户profile注入context,系统就能自然地说"李总您好,上次提到贵司用的XX系统...",体验连贯。

  3. 工具调用失败:设计重试+降级机制。第一步:自动重试1-2次(指数退避);仍失败则降级:告知用户"系统正在处理中,稍后反馈",同时将该任务入队异步重试;记录失败日志供排查。核心是不能让用户看到裸报错。

技术栈匹配:Python/FastAPI/LangChain/向量数据库都在用,可以按模块报价合作。

头像
等级1

我是一名拥有近 6 年经验的资深前端工程师,曾统筹团队前端基建(主导 GitLab CI/CD 落地)、攻坚过复杂的 BPMN 业务审批流与极耗性能的海量数据可视化面板。
在扎实的前端底盘之上,我目前已深度转型为 AI 全栈工程师,专注于解决大模型产品落地中的工程化痛点。 随信附上我近期独立打通全栈并部署上线的两个商业级 AI 项目,欢迎直接体验:
● 🔗 AxiomSchema (全栈 AI SaaS 引擎):https://www.axiomschema.top
○ 技术亮点: 使用 Vue3 + Python FastAPI 彻底前后端解耦,成功突破了 Serverless 部署大模型推理的 10 秒超时瓶颈;并基于 Clerk JWT 实现了严密的多租户行级数据隔离。
● 🔗 traceRAG (高阶 AI 知识库系统):https://www.tracerag.top
○ 技术亮点: 落地 TopK + MMR 高阶检索策略,并通过“精准补丁”与 Query Rewrite 优化,大幅降低了 Token 消耗并解决了大模型幻觉问题。

头像
等级1

没有rag的经验,其他的我有

头像
等级0

寻找有实力的数据这块,有的话联系

头像
等级0

你好,我之前是基础医疗的,中、西医模型微调落地,智能客服,rag问答系统都有实际落地经验,之前公司也是头一批将ai应用落地的;您可以搜索到:ABC数字医疗云,这个是我们的产品,您提到的agent/rag/工作流在我这里都是有实际落地经验的;
问题回答:
1.首先采用小模型对问题进行意图识别、实体提取,然后确定意图走到对应的工作流,然后调用本地集成的tool,将提取到的实体条件根据提示词转化为SQL的拼接条件,然后查询问题范围的数据内容
2.我会想到使用langgraph的checkpointer+本地消息表,将多轮对话的状态state存储,然后十五天之后获取该回话thread_id去获取到该回话的state信息(存储了历史回话的摘要等信息),然后根据获取的历史信息,继续进行对话。
3.代码编写阶段就先给每个阶段记录日志实现链路最终,然后对重要环节的增删改查、调用外部系统的步骤实现重试机制(生产一般在3-5次),重试结束还是不行就熔断降级,保留对应日志信息,并且将失败步骤的请求报文等信息用本地表存储,后续可能做定时任务补偿策略,保证系统整体健壮性。

头像
等级0

专业软件定制开发公司承接,可以聊聊么

版块详情

社区帖子招聘

25k 帖子
190k 评论
2k 关注
非主流的工作机会在这里更受欢迎~
版主
远程全职推荐

扫码下载应用

下载APP以便及时收到回复或进展