1-大模型(LLMs)基础面.pdf
2-Layer normalization 篇.pdf
3-LLMs激活函数篇.pdf
4-Attention升级面.pdf
5-transformers操作篇.pdf
6-LLMs损失函数篇.pdf
7-相似度函数篇.pdf
8-大模型(LLMs)进阶面.pdf
9-大模型(LLMs)微调面.pdf
10-LLMs训练经验帖.pdf
11-大模型(LLMs)langchain面.pdf
12-多轮对话中让AI保持长期记忆的8种优化方式篇.pdf
13-基于langchain RAG问答应用实战.pdf
14-基于LLM+向量库的文档对话经验面.pdf
15-大模型RAG经验面.pdf
16-LLM文档对话pdf解析关键问题.pdf
17-大模型(LLMs)RAG版面分析--表格识别方法篇.pdf
18-大模型(LLMs)RAG版面分析--文本分块面.pdf
19-大模型外挂知识库优化如何利用大模型辅助召回?.pdf
20-大模型外挂知识库优化负样本样本挖掘篇.pdf
21-RAG (Retrieval-Augmented Generation)评测面.pdf
22-检索增强生成(RAG)优化策略篇.pdf
23-大模型(LLMs)RAG关键痛点及对应解决方案.pdf
24-大模型(LLMs)RAG优化策略-RAG-Fusion篇.pdf
25-GraphRAG面一一种基于知识图谱的大模型检索增强实现策略.pdf
26-大模型(LLMs)参数高效微调(PEFT)面.pdf
27-适配器微调(Adapter-tuning)篇.pdf
28-提示学习(Prompting)篇.pdf
29-LoRA系列篇.pdf
30-如何使用PEFT库中LoRA?.pdf
31-大模型(LLMs)推理面.pdf
32-大模型(LLMs)增量预训练篇.pdf
33-增量预训练(Pretrain)样本拼接篇.pdf
34-基于lora的llama2二次预训练.pdf
35-大模型(LLMs)评测面.pdf
36-大模型(LLMs)强化学习面.pdf
37-大模型(LLMs)强化学习RLHF及其变种面.pdf
38-大模型(LLMs)强化学习PPO面.pdf
39-强化学习在自然语言处理下的应用篇.pdf
40-大模型(LLMs)训练集面.pdf
41-大模型(LLMs)LLM生成SFT数据方法面.pdf
42-大模型(LLMs)显存问题面.pdf
43-显存优化策略篇.pdf
44-大模型(LLMs)分布式训练面.pdf
45-图解分布式训练(一)流水线并行(PipelineParallelism).pdf
46-图解分布式训练(二) nn.DataParallel篇.pdf
47-图解分布式训练(三) --nn.parallel.DistributedDataParallel.pdf
48-图解分布式训练(四)torch.multiprocessing详细解析.pdf
49-图解分布式训练(五)AMP混合精度训练详细解析.pdf
50-图解分布式训练(六)Pytorch的DeepSpeed详细解析.pdf
51-图解分布式训练(七)accelerate分布式训练详细解析.pdf
52-图解分布式训练(八V)ZeRO学习.pdf