合同期限:12个月
工作时间:每周35小时
地点:800 Kipling Ave, Etobicoke(混合模式,远程工作2天)
雇佣类型:独立承包商
职位概述
作为LLM模型微调专家,您将负责通过利用您在LLM微调方面的专业知识,推进我们的语言模型的能力。理想的候选人将具有自然语言处理的广泛知识,深度学习架构的熟练运用能力,能够同时使用云和本地硬件,并且在商业SaaS平台(如Databricks和Azure)上部署模型的经验。您将与我们的团队密切合作,开发和部署最先进的模型,为我们的产品的成功做出重要贡献。
• 领导大规模语言模型(LLM)的微调,以优化在各种NLP领域和任务中的性能。
• 运用深度学习和机器学习架构的专业知识,定制和优化模型的准确性和效率。
• 与跨职能团队合作,将微调的模型集成到工业级应用和产品中。
• 评估和预处理大规模文本和数值数据集,用于模型训练,确保高质量的输入。
• 支持在本地硬件和商业SaaS平台(如Databricks和Azure ML)上开发和部署模型。
• 了解LLM的最新进展,并实施模型微调和NLP技术的最佳实践。
资格要求
• 计算机科学、人工智能、数据科学或相关领域的学士或硕士学位(博士学位优先)。
• 在微调语言模型(LLM)方面有实际经验(>3年),对LLM架构(如GPT、BERT、Transformer)有深入了解。
• 在深度学习和机器学习方面具有广泛的专业知识,重点关注自然语言处理(NLP)。
• 有开发和部署工业级深度学习模型和应用的实际经验。
• 熟练运用本地硬件进行模型训练和部署;有Databricks和Azure ML等商业SaaS平台经验者优先。
• 熟练掌握Python等编程语言的编程技能,熟悉相关库(如TensorFlow、PyTorch、Hugging Face Transformers等)。
• 出色的问题解决能力和积极主动解决挑战的态度。
• 出色的沟通能力,能够在团队环境中有效合作。