In-context Learning
预计学习时间:30分钟
上下文学习(In-context Learning)是大型语言模型的一种涌现能力,使模型能够仅通过提示中的示例和指令,在不更新参数的情况下,学习执行新任务。这种能力最早在GPT-3中被广泛观察到。
上下文学习的基本原理
上下文学习是语言模型通过提示(prompt)中提供的示例来理解任务模式,并应用于新实例的能力:
- 模型参数在推理过程中保持不变
- 学习发生在模型的激活层面,而非权重更新
- 通过提示中的示例展示任务的模式和期望
上下文学习的形式
上下文学习主要有三种形式:
-
零样本学习(Zero-shot Learning)
- 无需任何示例,仅通过任务描述执行
- 例如:"翻译以下句子成英文:'我喜欢大型语言模型'"
-
单样本学习(One-shot Learning)
- 通过单个示例理解任务
- 例如:"例子:'好' → 'good',请翻译:'我喜欢大型语言模型'"
-
少样本学习(Few-shot Learning)
- 通过提供多个示例定义任务模式
- 最能体现上下文学习的强大能力
# 演示上下文学习的简单示例
from transformers import AutoModelForCausalLM, AutoTokenizer
def demonstrate_in_context_learning(model_name, task_type="classification"):
"""演示语言模型的上下文学习能力"""
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# 构建不同类型的上下文学习提示
if task_type == "classification":
# 情感分类任务
zero_shot_prompt = """判断以下句子的情感是积极还是消极:
句子: 这部电影真是太棒了,我非常喜欢!
情感:"""
one_shot_prompt = """判断句子的情感是积极还是消极:
句子: 这家餐厅的服务真差劲。
情感: 消极
句子: 这部电影真是太棒了,我非常喜欢!
情感:"""
few_shot_prompt = """判断句子的情感是积极还是消极:
句子: 这家餐厅的服务真差劲。
情感: 消极
句子: 这个产品超出了我的期望,非常满意。
情感: 积极
句子: 等了一个小时,服务员态度还很差。
情感: 消极
句子: 这部电影真是太棒了,我非常喜欢!
情感:"""
# 测试不同提示形式
prompts = {
"零样本": zero_shot_prompt,
"单样本": one_shot_prompt,
"少样本": few_shot_prompt
}
results = {}
for name, prompt in prompts.items():
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(
**inputs,
max_new_tokens=10,
temperature=0.7,
do_sample=True
)
result = tokenizer.decode(outputs[0], skip_special_tokens=True)
results[name] = result
return results
研究表明,少样本学习的效果通常优于零样本和单样本学习,但提示的质量、示例的选择和顺序也会显著影响结果。
上下文学习的工作机制
虽然上下文学习的确切机制仍在研究中,目前有几种主要理论:
1. 元学习视角
- 预训练过程隐式地训练了模型进行"学习如何学习"
- 模型学会了从示例中抽取任务模式的一般能力
2. 激活调整视角
- 提示中的示例调整模型的内部激活状态
- 这种调整使模型能够适应特定任务的分布和要求
3. 隐式微调视角
- 模型将上下文信息存储在注意力机制中
- 相当于执行了极其轻量级的"一次性记忆"
"上下文学习可能是大型语言模型最令人惊讶的能力之一,它挑战了我们对机器学习必须通过显式参数更新才能适应新任务的传统认识。" — Jacob Devlin
上下文学习的应用与优化
主要应用场景
- 快速原型设计:无需训练即可测试模型能力
- 低资源场景:对于缺乏训练数据的任务或语言
- 多任务系统:单个模型通过提示切换不同功能
- 个性化交互:根据用户行为动态调整响应
提示优化策略
提升上下文学习效果的关键因素:
- 示例选择:选择具有代表性且多样化的示例
- 示例排序:研究表明示例顺序会影响性能
- 任务描述:清晰具体的任务描述有助于模型理解
- 格式一致性:保持输入输出格式的一致性
提示类型 | 适用场景 | 优势 | 局限性 |
---|---|---|---|
零样本提示 | 简单直观的任务 | 简洁,无需示例 | 复杂任务准确率低 |
单样本提示 | 中等复杂度任务 | 平衡效果与简洁 | 单例可能有偏差 |
少样本提示 | 复杂或模糊任务 | 性能最佳 | 占用上下文空间 |
上下文学习的局限性
尽管强大,上下文学习仍有明显局限:
- 上下文窗口限制:受限于模型的最大上下文长度
- 示例选择敏感性:对示例选择和顺序高度敏感
- 任务复杂性限制:复杂任务仍需显式微调
- 输入格式敏感:对提示格式的微小变化敏感
上下文学习作为大型语言模型的关键涌现能力,为AI应用提供了新的范式,在实际应用中需要通过系统性设计和实验优化提示以获得最佳效果。