forked from KKenny0/LLMpedia
-
Notifications
You must be signed in to change notification settings - Fork 0
/
llmpedia-toc.txt
69 lines (61 loc) · 2.57 KB
/
llmpedia-toc.txt
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
我想新建一个 gitbook 项目,主要用于搜集自己觉得好的 LLM 相关的资源。列出 LLM(大语言模型)所涉及的所有知识体系(如:模型结构、Prompt 工程、应用方向等),并给出每个知识体系下的细分点。
这是一个大致的知识体系框架,适用于 GitBook 项目中的 LLM 资源收集:
### 1. **模型结构(Model Architecture)**
- **基础模型结构**
- Transformer 架构
- 自回归模型(GPT 系列)
- 自编码模型(BERT 系列)
- Encoder-Decoder 模型(T5、BART)
- **进阶结构**
- 深度与宽度(层数与隐藏维度)
- 多头注意力机制(Multi-head Attention)
- 框架变体(ALBERT、Longformer、BigBird 等)
### 2. **训练技术(Training Techniques)**
- **预训练(Pretraining)**
- 无监督学习(MLM、Causal LM)
- 半监督和多任务学习
- **微调(Fine-tuning)**
- 监督微调
- 指令微调(Instruction Tuning)
- **蒸馏和压缩(Distillation and Compression)**
- 知识蒸馏
- 剪枝和量化
### 3. **Prompt 工程(Prompt Engineering)**
- **基础 Prompt 技术**
- Prompt 的构造与设计
- 零样本、少样本与多样本提示
- **高级 Prompt 技术**
- Prompt 调优(Prompt Tuning)
- 软提示(Soft Prompting)
- **应用场景**
- 问答生成、情感分析、对话系统
### 4. **推理与优化(Inference and Optimization)**
- **推理加速**
- 模型剪枝和量化
- GPU 和 TPU 的加速
- **多模态处理**
- 图像-文本模型(CLIP 等)
- 跨模态注意力机制
- **内存与计算优化**
### 5. **应用方向(Applications)**
- **文本生成与摘要**
- 自然语言生成(NLG)
- 文本摘要
- **问答与对话系统**
- Chatbot 技术
- 问答系统与检索增强生成(RAG)
- **代码生成与分析**
- 编程助手(Codex、CodeBERT)
- 自动代码补全
- **多语言支持**
- 多语言模型(mBERT、XLM-R)
- 机器翻译和跨语言理解
### 6. **伦理与安全(Ethics and Safety)**
- **模型偏见与公正性**
- 偏见识别与消除
- **隐私保护**
- 数据隐私与模型隔离
- **内容控制**
- 有害内容识别与过滤
- 生成内容审核
可以以这些为框架,创建 GitBook 的不同章节,并逐步补充细分内容和相关资源链接。这样可以系统性地展示 LLM 相关知识体系,并方便查阅和学习。