大语言模型的终极之路
  • 大语言模型的终极之路
  • 更新计划
  • 大语言模型时代的NLP
    • 任务与评测
    • 参考资料
  • 基础知识
    • 负对数似然
    • Transformer
      • Cross Attention
      • 向量流动视角
      • Layer Normalization
      • Attention Block
    • 优化算法
      • 牛顿法
      • 梯度下降
  • 大语言模型
    • 大模型理论
      • Scaling Law
      • The Bitter Lesson
      • 思考,快与慢
    • 模型结构
      • MLP
      • Rotary Embedding
      • RMSNorm
      • Encoder-decoder
      • Decoder-only
      • MOE
      • 常见大模型
        • T5
        • GPT2
        • LLaMA
        • LLaMA 2
        • Mistral
        • GLM
        • Mixture
    • 如何训练一个ChatGPT
    • 微调
      • Instruction Tuning 指令微调
      • Domain Finetune 领域微调
    • 解码
      • 温度采样
      • Beam Search Decoding
  • Prompt 工程
    • Prompt, 一种技术路线
    • Prompt 写作规范
    • In-Context Learning
    • Chain-of-Thought
    • Generate Rather than Read
    • Program-of-Thought
    • Tree-of-Thought
    • 参考资料
  • 知识与幻觉
    • 知识边界
  • 大规模预训练
    • 计算资源消耗
    • Deepspeed
    • Megatron
    • 大规模数据处理
    • CUDA 算子优化
  • 强化学习
    • RLHF
      • RLHF
  • 大模型轻量化
    • 蒸馏
      • 黑盒蒸馏
      • 白盒蒸馏
        • KL 散度
    • 轻量化微调
      • LoRA
    • 量化
    • 剪枝
    • 推理加速
    • 参考资料
  • RAG-大模型检索
    • Page 3
  • 多智能体
    • Page 6
  • 多模态大模型
    • Page 1
  • 大模型安全与鲁棒
由 GitBook 提供支持
在本页
  1. 大语言模型

解码

在语言模型中生成文字时,有几种常见的解码方法,其中一些包括:

  1. 贪婪解码(Greedy Decoding):贪婪解码是最简单的解码方法之一。它在每个时间步选择概率最高的单词作为下一个输出。这种方法简单快速,但可能会导致生成的结果不够多样化。

  2. 束搜索解码(Beam Search Decoding):束搜索解码是一种基于贪婪解码的改进方法。它保留概率最高的几个候选词,并在每个时间步继续扩展这些候选。束搜索允许更多的选择,增加了生成多样性,但也会增加计算复杂度。

  3. 随机采样解码(Random Sampling Decoding):随机采样解码是一种更加随机的方法。在每个时间步,它根据生成的概率分布从词汇表中随机选择一个词作为输出。这种方法可以产生多样化的结果,但有时可能会导致生成的内容不够准确或不连贯。

  4. 温度调节(Temperature Scaling):温度调节是一种在随机采样解码中调节生成多样性的技巧。通过增加或减小温度参数,可以调整生成的随机性。较高的温度值会产生更多随机的输出,而较低的温度值会导致更加确定性的输出。

这些解码方法各有优缺点,适用于不同的应用场景。选择合适的解码方法取决于生成文字的目标和需求。

Top-k采样是一种生成文本的解码方法,用于在语言模型中选择下一个最有可能的单词。它基于每个时间步的概率分布,并从具有最高概率的K个单词中进行采样。

具体而言,Top-k采样首先计算生成的概率分布,并将其限制在概率总和达到预定义阈值(例如95%)的K个单词上。然后,从这K个单词中进行均匀随机采样,以确定下一个输出单词。

通过使用Top-k采样,可以在保持一定的多样性的同时,限制生成过程中可能出现的不太可能或不相关的单词。这种方法可以有效地控制生成文本的多样性,并避免生成无意义或不连贯的内容。

需要注意的是,Top-k采样方法对于每个时间步的概率分布进行计算和筛选,因此在计算上比较昂贵,特别是当词汇表很大时。

上一页Domain Finetune 领域微调下一页温度采样

最后更新于10个月前