端奇

AI 应用开发实习生 / 全栈开发实习生(AI方向)
聚焦 AI 应用开发方向,持续关注大模型、Agent、自动化工作流等新兴技术,擅长使用 Next.js、Supabase、OpenAI API 等技术,将需求分析、模型接入、系统开发与部署上线串联成完整产品闭环。对 AI 技术落地有持续投入,重点关注真实业务场景中的可验证性、可维护性与产品化能力。
📱 13160051916
📧 qiduan332@gmail.com
💻 GitHub:github.com/qd-maker
🎓 南京工业职业技术大学(本科)|网络工程|2028届

项目经历

保险场景 RAG / 产品信息结构化提取系统

Next.js / TypeScript / Supabase / PostgreSQL / pgvector / OpenAI API / Tailwind CSS | 项目地址:insurance.heyqi.xyz | GitHub:github.com/qd-maker/insurance-rag

S:面向保险产品信息提取这一高可信场景,开放式问答方案容易出现幻觉、跨产品污染和结果不可验证的问题。T:目标是做出一个可上线演示、结果可追溯的结构化提取系统,而不是停留在普通聊天问答。

  • A:负责核心后端服务设计与实现,基于 Next.js API Route + Supabase / pgvector 封装检索、抽取、健康检查与评估接口,推动项目从前端原型演进为可服务化调用的 AI 应用。
  • A:设计混合检索链路,结合产品约束、精确匹配与向量检索,降低跨产品召回污染;补充缓存、日志、健康检查与评估脚本,形成“检索—抽取—展示—评估—运维”闭环。
  • A:实现结构化抽取与字段级引用机制,将产品概览、核心保障、免责条款、适用人群等字段映射到来源条款,减少模型编造,增强结果可追溯性。
  • R:评估结果显示字段完整率 87.5%、引用覆盖率 87.5%,核心接口 P95 延迟 3254ms,项目已完成线上部署并支持真实查询演示。
结果 1:将 AI 检索与抽取能力沉到服务层,形成可复用的后端接口,而非一次性 Demo 页面。
结果 2:通过混合检索 + 字段级引用设计,把结构化输出做成“能验证来源”的结果,降低保险场景中的幻觉风险。
结果 3:基于评估脚本拿到字段完整率 87.5%、引用覆盖率 87.5%,让项目结果从“感觉还行”变成“有数据可讲”。
结果 4:核心接口 P95 延迟控制在 3254ms,并完成线上部署,具备面试演示与后续迭代基础。

Quorum / 多模型协作式 AI 对话与共识生成平台

React / TypeScript / FastAPI / Supabase / PostgreSQL / SSE | 项目地址:quorum.heyqi.xyz | GitHub:github.com/qd-maker/Quorum

S:面向复杂问题讨论场景,普通单模型聊天在长链路思考、观点对比和结果归纳上不够稳定。T:目标是搭建一个支持单模型聊天、多模型讨论和共识生成的全栈 AI 平台,并把关键交互能力真正后端服务化。

  • A:负责后端服务与前端交互链路实现,基于 FastAPI 构建会话管理、消息处理、模型调用与流式返回接口,重构高耗时链路。
  • A:设计单模型聊天、多模型讨论、共识汇总三类核心流程,支持多轮讨论状态管理与统一结果输出;基于 SSE 实现生成过程实时返回,优化长文本场景交互体验。
  • A:基于 Supabase / PostgreSQL 实现用户认证、历史记录、会话隔离与消息持久化,保障多用户环境下的数据一致性与基础产品化能力。
  • R:SSE 首字节时间由 1906ms 降至 1706ms(↓10.5%),完整响应时间由 1975ms 降至 1802ms(↓8.8%);创建会话接口平均耗时由 4244ms 降至 397ms(↓90.6%),消息接口平均耗时由 1173ms 降至 253ms(↓78.4%),P95 响应时间由 2519ms 降至 1673ms(↓33.6%),历史记录持久化成功率保持 100%
结果 1:把多模型协作能力沉到后端服务层,核心优化不只体现在“能用”,而是体现在接口耗时显著下降。
结果 2:SSE 首字节时间优化 10.5%,完整响应时间优化 8.8%,实际改善了长文本生成过程中的等待体验。
结果 3:创建会话接口平均耗时下降 90.6%,消息接口平均耗时下降 78.4%,后端链路优化效果很硬。
结果 4:P95 响应时间下降 33.6%,历史记录持久化成功率维持 100%,说明系统不仅更快,而且稳定。