1. 负责产品的功能测试、性能测试、自动化测试等工作,涵盖大模型服务、数据平台等。
2. 制定迭代版本验收标准及对应测试计划,设计和执行大模型落地产品的测试集及测试用例,评估系统的功能、性能和准确性。
3. 分析测试结果,发现和报告问题,推动系统的改进和优化。
4. 与其他团队成员协作,推动项目的进展,确保模型的质量和可靠性。
5. 撰写测试报告,记录测试结果和问题,评估其合理性、准确性、场景匹配度,为团队提供有价值的反馈。
6. 协助设计新的测试场景或任务流程,用于模型能力的覆盖性评估。
职位要求:
1. 计算机科学、软件工程、人工智能等相关专业本科及以上学历。
2. 5年以上软件测试经验,2年以上AI/大模型测试经验。
3. 熟悉NLP、深度学习模型的测试方法与评测指标。
4. 熟练掌握Python编程语言,精通Pytest、unittest等测试框架。
5. 有良好的逻辑思维和问题分析能力,善于总结行为模式或失败原因;
6. 以下至少有一项需要满足:(最好至少满足大模型测试方向)
加分项:有LLM大模型相关项目经历
加分项:有0-1负责新项目经历或小组管理经验
加分项:全链路性能测试方案设计、执行能力
加分项:有提效平台搭建能力



-
互联网·电子商务
-
21-50人
-
公司性质未知
-
北京市海淀区苏州街18号长远天地b1-906