GPT是英文缩写,全称是 “Generative Pre-trained Transformer”,中文翻译为”生成式预训练Transformer”。

GPT是openapi开发的神经网络模型。 

大模型(Large Language Model, LLM)是一个更广泛的概念,指参数量巨大(通常数十亿到数万亿参数)的神经网络模型。

大模型 (LLM)
├── 生成式模型
│   ├── GPT系列 (OpenAI)
│   ├── LLaMA (Meta)
│   ├── PaLM (Google)
│   └── Claude (Anthropic)
├── 理解式模型
│   ├── BERT (Google)
│   └── RoBERTa (Facebook)
└── 多模态模型
    ├── GPT-4V
    └── DALL-E

大模型的分类

flowchart TD
    A[大模型 LLM<br/>Large Language Model] --> B[生成式模型<br/>Generative Models]
    A --> C[理解式模型<br/>Understanding Models]
    A --> D[多模态模型<br/>Multimodal Models]
    
    B --> B1[专注文本生成<br/>自回归预测]
    C --> C1[专注文本理解<br/>双向编码]
    D --> D1[处理多种模态<br/>文本+图像+音频]
    
    classDef mainClass fill:#e1f5fe,stroke:#01579b,stroke-width:3px
    classDef genClass fill:#f3e5f5,stroke:#4a148c,stroke-width:2px
    classDef underClass fill:#e8f5e8,stroke:#1b5e20,stroke-width:2px
    classDef multiClass fill:#fff3e0,stroke:#e65100,stroke-width:2px
    
    class A mainClass
    class B,B1 genClass
    class C,C1 underClass
    class D,D1 multiClass
flowchart TD
    A[生成式模型<br/>Generative Models] --> B[国外厂商]
    A --> C[国内厂商]
    
    B --> D[OpenAI<br/>GPT系列]
    B --> E[Meta<br/>LLaMA系列]
    B --> F[Google<br/>PaLM/Bard]
    B --> G[Anthropic<br/>Claude]
    B --> H[Microsoft<br/>Bing Chat]
    
    C --> I[百度<br/>文心一言]
    C --> J[阿里巴巴<br/>通义千问]
    C --> K[智谱AI<br/>ChatGLM]
    C --> L[科大讯飞<br/>讯飞星火]
    C --> M[字节跳动<br/>豆包]
    
    classDef genClass fill:#f3e5f5,stroke:#4a148c,stroke-width:2px
    classDef foreignClass fill:#e3f2fd,stroke:#1976d2,stroke-width:2px
    classDef domesticClass fill:#fce4ec,stroke:#c2185b,stroke-width:2px
    
    class A genClass
    class B,D,E,F,G,H foreignClass
    class C,I,J,K,L,M domesticClass
flowchart LR
    A[GPT-1<br/>2018年<br/>117M参数<br/>首次提出GPT概念] --> B[GPT-2<br/>2019年<br/>1.5B参数<br/>因太危险延迟发布]
    
    B --> C[GPT-3<br/>2020年<br/>175B参数<br/>展现惊人能力]
    
    C --> D[ChatGPT<br/>2022年<br/>基于GPT-3.5<br/>RLHF优化]
    
    C --> E[GPT-4<br/>2023年<br/>多模态能力<br/>参数未公开]
    
    D --> F[GPT-4 Turbo<br/>2023年<br/>更长上下文<br/>更低成本]
    
    E --> G[GPT-4V<br/>2023年<br/>视觉理解<br/>图文并茂]
    
    classDef gptClass fill:#ffebee,stroke:#b71c1c,stroke-width:2px
    classDef chatClass fill:#e8f5e8,stroke:#2e7d32,stroke-width:2px
    classDef multiClass fill:#fff3e0,stroke:#f57c00,stroke-width:2px
    
    class A,B,C gptClass
    class D,F chatClass
    class E,G multiClass
flowchart TD
  A[理解式模型<br/>Understanding Models] --> B[BERT家族]
  A --> C[其他架构]
  
  B --> D[BERT<br/>Google 2018<br/>双向编码器]
  B --> E[RoBERTa<br/>Facebook 2019<br/>优化训练策略]
  B --> F[DeBERTa<br/>Microsoft 2020<br/>解耦注意力]
  B --> G[ELECTRA<br/>Google 2020<br/>替换检测预训练]
  
  C --> H[XLNet<br/>CMU 2019<br/>排列语言模型]
  C --> I[ALBERT<br/>Google 2019<br/>参数共享]
  C --> J[DistilBERT<br/>HuggingFace<br/>知识蒸馏]
  
  classDef underClass fill:#e8f5e8,stroke:#1b5e20,stroke-width:2px
  classDef bertClass fill:#e1f5fe,stroke:#0277bd,stroke-width:2px
  classDef otherClass fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
  
  class A underClass
  class B,D,E,F,G bertClass
  class C,H,I,J otherClass
flowchart TD
  A[多模态模型<br/>Multimodal Models] --> B[文本+图像理解]
  A --> C[文本生成图像]
  A --> D[其他模态组合]
  
  B --> E[GPT-4V<br/>OpenAI<br/>图文理解对话]
  B --> F[Flamingo<br/>DeepMind<br/>少样本学习]
  B --> G[BLIP-2<br/>Salesforce<br/>图像字幕生成]
  
  C --> H[DALL-E 2<br/>OpenAI<br/>高质量图像生成]
  C --> I[Midjourney<br/>艺术创作专用]
  C --> J[Stable Diffusion<br/>开源扩散模型]
  C --> K[文心一格<br/>百度图像生成]
  
  D --> L[Whisper<br/>OpenAI<br/>语音识别]
  D --> M[MusicLM<br/>Google<br/>文本生成音乐]
  D --> N[Make-A-Video<br/>Meta<br/>文本生成视频]
  
  classDef multiClass fill:#fff3e0,stroke:#e65100,stroke-width:2px
  classDef visionClass fill:#e8f5e8,stroke:#388e3c,stroke-width:2px
  classDef imageGenClass fill:#f3e5f5,stroke:#7b1fa2,stroke-width:2px
  classDef otherModalClass fill:#e1f5fe,stroke:#1976d2,stroke-width:2px
  
  class A multiClass
  class B,E,F,G visionClass
  class C,H,I,J,K imageGenClass
  class D,L,M,N otherModalClass