乐信接入DeepSeek近一年 本地化部署助力业务数智化发展

新浪证券
14 Feb

  继去年5月引入DeepSeek V2版本之后,近期乐信正式接入和部署了DeepSeek -R1版本,通过DeepSeek 完善了本地化部署的、乐信专有大模型“奇点”Al大模型,并在研发提效、内部工具、业务赋能等方面深入落地应用。

  乐信是国内最早部署和应用DeepSeek的金融平台之一。早在去年5月份,乐信技术团队在系统性评测多款大模型时发现,成立不足一年的深度求索(DeepSeek)展现出极强的数学推理能力。乐信的AI工程师通过一些列需要多步推理的复杂数学模型问题检验模型的计算能力。在同等测试条件下,DeepSeek不仅准确完成求导过程,其解题效率与逻辑严谨性显著优于其他模型。基于这一科学验证,乐信快速锁定DeepSeek作为基础底座模型,成为首批将DeepSeek应用于金融行业的企业。

  (注:2024年5月,乐信技术团队通过数学推理发现了国产DeepSeek算力优异,并最终选择DeepSeek作为公司合作方。)

  DeepSeek通过技术创新大幅降低了企业部署大模型的门槛,使得本地化、私有化部署成为可能,这对于金融属性企业具有重要意义。数据安全是金融行业稳固发展的基石,也是企业践行消保理念、履行社会责任的体现。乐信“奇点”Al大模型正是基于DeepSeek进行本地化部署,数据安全有了更坚实的保证。

  接入DeepSeek只是第一步,如何进行行业微调、让大模型适用金融行业更为关键。乐信在DeepSeek基础之上,借助累积十余年超万亿元的信贷经验,通过乐信金融专属数据预训练、业务数据精调,打造专属于乐信的金融垂直Al大模型“奇点”,并加速在公司业务多个领域落地应用、提质增效。

  研发提效方面,公司大模型已实现研发人员100%落地应用,2024年月均辅助生成代码86万次、全年提出质量改进建议21万次,有效助力研发人员编码效率提升约35%;

  内部工具上,基于大模型公司推出了面试助手、会议助手、lechatgpt等实用提效工具,其中面试助手在近半年中辅助126场面试、场均提出15个面试问题,生成110个面试评价,有效助力面试人员大幅提升面试效率;

  业务赋能上,公司大模型目前已在电销、客服、催收等主要业务流程中全面落地应用。通过学习过往对话数据,大模型持续优化和迭代对话流程树、提升转化效果。测试中,相比较人工电销场景开口率平均提升8.7%,交互轮次平均提升17%,大幅提升公司整体的运营效率和客户体验。

  乐信CTO陆勇表示,今年公司会继续加大技术投入, 尤其是在基于DeepSeek-R1私有化部署和蒸馏适配业务领域专属的模型上发力, 在公司的所有业务流程环节上改造提效, 探索通过技术助力公司和业务向着数字化、智能化方向发展。

海量资讯、精准解读,尽在新浪财经APP

责任编辑:张倩

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10