ChatSprout 2.0 – 基于 LLM 的场景化英语训练助手
-
项目背景:
- 非英语母语的职场人士在 networking、会议等场景中常面临"不知道怎么开口",他们需要的是场景化的表达能力,而非通用的语法纠错
-
产品方案:
- 通过 10+ 名用户调研,识别沟通核心卡点,设计场景化表达训练系统,通过 LLM + RAG 提供结构化表达建议
-
核心产品设计:
- 拆解职业社交沟通场景(表达异议、反馈沟通、社交破冰等),构建场景分类体系
- 设计智能匹配链路:用户输入 → 语义向量化 → 相似场景检索 → 定制化表达建议生成
- 引入低相似度场景 fallback 机制,避免生硬建议,提升用户体验
- 优化检索策略,使 Top-3 场景匹配准确率达到约 80%
-
效果评估:
- 建立模型评估指标体系(表达准确度、语气合理性、响应延迟、Token 成本)
- 通过 prompt 设计与 API 调用策略优化,控制系统平均响应时间在 1.5–2 秒
- 关键洞察:
- 在开放式语言训练场景中,RAG 检索质量对生成效果的影响大于模型规模
ML训练数据生成系统(安卓恶意软件检测)
-
项目背景:
- 安卓恶意软件检测的研究者面临数据瓶颈:公开数据集缺乏混淆样本多样性,且生成过程不可复现,导致模型鲁棒性难以验证、实验难以对比
-
产品方案:
- 研究者需要的不是"一批数据",而是持续生成高质量数据的能力,需要将一次性的数据处理脚本升级为可复用的数据生成系统,支持恶意软件检测模型在「训练—评估」闭环中的持续迭代
-
核心产品设计:
- 多样性:整合 17+ 种混淆策略,覆盖主流对抗技术
- 可控性:双流水线架构,各阶段可独立监控调试
- 稳定性:重试与 fallback 机制,大规模处理成功率 82%
-
成果:
- 处理 12,000+ Android 恶意样本,基于 17+ 种混淆策略生成 7,900+ 混淆变种,为模型训练提供丰富的对抗样本
- 提供可复现、可扩展的恶意样本数据生成能力,被后续研究复用,显著缩短数据准备周期