|
|
|
|
职位描述 用小程序查看更多 |
|
职责描述
1. 研发与优化基于RAG(检索增强生成)架构的智能问答、知识库系统,提升信息检索准确率和生成内容质量
2. 负责大语言模型(LLM)的领域适配微调,包括但不限于Prompt Engineering、LoRA/QLoRA、P-Tuning等高效微调技术
3. 构建多源异构数据处理管道,设计知识库embedding优化方案,提升向量检索效率
4. 与产品、数据团队协作,将算法能力转化为实际业务价值
5. 跟踪大模型前沿技术动态,探索模型压缩、推理加速等落地实践 。
6.定期组织技术分享,指导和培养初级工程师,提升团队算法能力
任职要求
1. 计算机/数学/人工智能相关专业本科及以上学历,5年以上NLP研发经验
2. 理解Transformer架构,熟悉BERT、GPT、LLaMA等大模型技术原理
3. 具备RAG系统实战经验,精通LangChain、LlamaIndex等框架,熟悉FAISS/Chroma等向量数据库
4. 掌握大模型微调全流程,具有Hugging Face Transformers、DeepSpeed、PEFT等工具链项目经验
5. 具备良好的逻辑思维能力和数据敏感度,能独立完成技术方案设计与落地
|
|
|
|
|
|
|