一、发展历程

2023年7月6日:InternLM-7B模型开源,并且是首个免费商用的模型。
2024年1月17日:InternLM-20B模型开源。
2024年7月4日:InternLM2.5模型开源。
2023年9月20日:InternLM2模型开源,并且发布了全链条开源工具体系。
2024年1月17日:InternLM2模型开源,并且开源工具链进行了全线升级,性能超过了最新的同量级开源模型。
image-20240809160325183

书生大模型是上海人工智能实验室推出的自然语言的大模型开源项目,该项目具有性能好、全链路开源等特点。

经过几年的不断发展,目前LM2.5-20B已经达到了GPT-4的水平。

image-20240809160520546

二、核心技术思路

  • 模型能力迭代飞轮

image.png

  • 高质量的合成数据:融合多种数据合成方案,提升合成数据质量

    image.png

  • 自主规划和搜索完成复杂任务

    img

三、生浦语开源模型谱系

给出了不同规模的模型,如适合本地个人使用的1.8B模型,适合小规模团队或商用的7B模型等。

  • 1.8亿参数的超轻量级模型,适用于端侧应用或开发者快速学习上手。
  • 7亿参数的模型,轻便但性能不俗,为轻量级的研究和应用提供强力支撑。
  • 20亿参数的模型,综合性能强劲,可以支持更加复杂的实用场景。
  • 1020亿参数的闭源模型,性能强大,典型场景表现接近GPT-4。

image-20240809160917787
主要项目和工具:

  • MindSearch:思索式开源搜索应用。
  • Lagent:首个支持代码解释器的智能体框架。
  • MinerU:高效文档解析工具。
  • 书生·万卷:首个精细处理的开源多模态语料库:提供多模态数据处理。
  • HuixiangDou:基于专业知识库的群聊助手。
  • InternEvo:性能超过国际主流训练框架。
  • OpenCompass:社区最全面的开源评测体系。
  • DeepSpeed:系列模型和工具。
  • XTuner:多种微调和偏好对齐算法。
  • LMDeploy:支持多种微调和偏好对齐算法的部署工具。
    合作伙伴和工具:

    Hugging Face:提供VLLM、LLaMAC等工具。

  • TensorRT-LLM:用于深度学习推理的优化工具。

  • LMStudio:用于模型微调和部署的平台。
  • LLaMA-Factory:用于生成和管理LLaMA模型的工厂。
  • andEGeLLMFint:可能是一种金融领域的LLM应用。
  • Llamalndex、ollama、MLX、llamafile、Swift:其他相关工具或框架。

image.png