日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

大模型微調(diào):Prompt-Tuning

 taotao_2016 2025-04-29

理論介紹

Prompt-Tuning是一種參數(shù)高效微調(diào)方法,核心思想可以類比:技術(shù)人員不去修改知識(shí)淵博的教科書(預(yù)訓(xùn)練好的大模型),而是在書的開頭(輸入層)添加幾張非常智能的、可學(xué)習(xí)的便利貼(軟提示/虛擬token(Soft Prompt) 或者叫虛擬提示詞-Virtual Tokens),便利貼上的內(nèi)容不是固定的文字,而是模型可以自己學(xué)習(xí)調(diào)整的參數(shù)(向量)。

訓(xùn)練時(shí),凍結(jié)原始模型的絕大部分參數(shù),只訓(xùn)練新添加的便利貼參數(shù),讓模型看到特定的便利貼時(shí),就按照我們期望的方式去執(zhí)行任務(wù)。

核心原理圖示

PLM(預(yù)訓(xùn)練模型)不變,W(模型權(quán)重)不變,X(模型輸入)改變。

圖片

設(shè)計(jì)任務(wù)關(guān)聯(lián)提示模板,并微調(diào)提示嵌入,以引導(dǎo)預(yù)訓(xùn)練模型適應(yīng)特定任務(wù)。僅需微調(diào)少量提示(Prompt Embeddings),而非整個(gè)模型參數(shù)。

圖片

相比傳統(tǒng)微調(diào)的優(yōu)勢(shì):

  • · 訓(xùn)練快、資源省:只訓(xùn)練極少數(shù)參數(shù)。
  • · 存儲(chǔ)小:每個(gè)新任務(wù)只需要保存那些小小的便利貼參數(shù),而不是整個(gè)模型。
  • · 效果好:在很多任務(wù)上,Prompt-Tuning 的效果可以媲美完全微調(diào)。
  • · 原模型不受影響:基礎(chǔ)模型保持不變,可以方便地為不同任務(wù)加載不同的便利貼。

通過代碼解讀原理

代碼將展示Prompt-Tuning的完整實(shí)現(xiàn)過程,并解釋其工作原理。(運(yùn)行環(huán)境需pip加裝PEFT包,本代碼采用的PEFT版本為0.14.0)。

Prompt-Tuning方法主要體現(xiàn)在第四步和第八步,需重點(diǎn)閱讀,其余代碼與往期基本一致。

第一步: 導(dǎo)入相關(guān)包

import torch
from datasets import Dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, DataCollatorForSeq2Seq, TrainingArguments, Trainer
from peft import PromptTuningConfig, get_peft_model, TaskType, PromptTuningInit, PeftModel

第二步: 加載數(shù)據(jù)集

# 包含 'instruction' (指令), 'input' (可選的額外輸入), 'output' (期望的回答)
ds = Dataset.load_from_disk('../data/alpaca_data_zh/'

第三步: 數(shù)據(jù)集預(yù)處理

將每個(gè)樣本處理成包含 input_ids, attention_mask, 和 labels 的字典。

tokenizer = AutoTokenizer.from_pretrained('D:\\git\\model-download\\bloom-389m-zh'
defprocess_func(example):

    MAX_LENGTH = 256

    # 構(gòu)建輸入文本:將指令和輸入(可選)組合到一起,并添加明確的 'Human:' 和 'Assistant:' 標(biāo)識(shí)符。'\n\nAssistant: ' 是提示模型開始生成回答的關(guān)鍵分隔符。
    prompt = '\n'.join(['Human: ' + example['instruction'], example['input']]).strip() + '\n\nAssistant: '
    # 對(duì)輸入+提示進(jìn)行分詞,這里暫時(shí)不添加特殊token (<s>, </s>),后面要拼接
    instruction_tokenized = tokenizer(prompt, add_special_tokens=False)
    # 對(duì)期望的輸出(回答)進(jìn)行分詞,在回答的末尾加上 `tokenizer.eos_token` (end-of-sentence)。告訴模型生成到這里就可以結(jié)束。
    response_tokenized = tokenizer(example['output'] + tokenizer.eos_token, add_special_tokens=False)
    # 將輸入提示和回答的 token IDs 拼接起來,形成完整的輸入序列 input_ids
    input_ids = instruction_tokenized['input_ids'] + response_tokenized['input_ids']
    # attention_mask 用于告訴模型哪些 token 是真實(shí)的、需要關(guān)注的,哪些是填充的(padding)。
    attention_mask = instruction_tokenized['attention_mask'] + response_tokenized['attention_mask']
    # 創(chuàng)建標(biāo)簽 (labels):這是模型需要學(xué)習(xí)預(yù)測(cè)的目標(biāo),因?yàn)橹幌MP蛯W(xué)習(xí)預(yù)測(cè) 'Assistant:' 后面的回答部分,所以將輸入提示部分的標(biāo)簽設(shè)置為 -100,損失函數(shù)自動(dòng)忽略標(biāo)簽為 -100 的 token,不計(jì)算它們的損失。
    labels = [-100] * len(instruction_tokenized['input_ids']) + response_tokenized['input_ids']
    
    # 截?cái)?/span>
    iflen(input_ids) > MAX_LENGTH:
        input_ids = input_ids[:MAX_LENGTH]
        attention_mask = attention_mask[:MAX_LENGTH]
        labels = labels[:MAX_LENGTH]

    # 返回處理好的數(shù)據(jù)
    return {
        'input_ids': input_ids,
        'attention_mask': attention_mask,
        'labels': labels
    }
#  .map() 方法將處理函數(shù)應(yīng)用到整個(gè)數(shù)據(jù)集的所有樣本上。
tokenized_ds = ds.map(process_func, remove_columns=ds.column_names)    #  `remove_columns` 會(huì)移除原始的列,只保留 process_func 返回的新列。    
print('\n檢查第2條數(shù)據(jù)處理結(jié)果:')
print('輸入序列 (input_ids解碼):', tokenizer.decode(tokenized_ds[1]['input_ids']))
target_labels = list(filter(lambda x: x != -100, tokenized_ds[1]['labels'])) # 過濾掉 -100,看看模型真正需要預(yù)測(cè)的標(biāo)簽是什么
print('標(biāo)簽序列 (labels解碼,過濾-100后):', tokenizer.decode(target_labels))

第四步: 創(chuàng)建模型與 PEFT 配置

這一步是Prompt-Tuning 的核心步驟,需要嵌入一段文本來初始化'虛擬提示詞',將文本分詞后,對(duì)應(yīng)的詞向量(embedding)作為虛擬提示詞的初始值。

最后的num_virtual_tokens是指虛擬提示詞嵌入向量的數(shù)量,也是唯一需要訓(xùn)練的參數(shù)。

model = AutoModelForCausalLM.from_pretrained('D:\\git\\model-download\\bloom-389m-zh'
# 配置 Prompt Tuning
config = PromptTuningConfig(
    task_type=TaskType.CAUSAL_LM,    # 因果語言模型
    prompt_tuning_init=PromptTuningInit.TEXT,    # PromptTuningInit.TEXT 表示用一段文本的嵌入來初始化'虛擬提示詞',比隨機(jī)初始化效果好。
    prompt_tuning_init_text='下面是一段人與機(jī)器人的對(duì)話。',    # 對(duì)文本分詞,對(duì)應(yīng)的詞向量(embedding)作為虛擬提示詞的初始值。
    num_virtual_tokens=len(tokenizer('下面是一段人與機(jī)器人的對(duì)話。')['input_ids']),  # 虛擬提示詞的數(shù)量,等于初始化文本分詞后的長(zhǎng)度,這 `num_virtual_tokens` 個(gè)虛擬提示詞的嵌入向量,就是唯一需要訓(xùn)練的參數(shù)!
    tokenizer_name_or_path='D:\\git\\model-download\\bloom-389m-zh'
)

# 通過`get_peft_model`函數(shù)將 Prompt Tuning 配置應(yīng)用到基礎(chǔ)模型上,函數(shù)會(huì)在模型內(nèi)部添加可學(xué)習(xí)的 Prompt Encoder,并自動(dòng)凍結(jié)基礎(chǔ)模型的其他所有參數(shù)。
model = get_peft_model(model, config)
# 查看模型結(jié)構(gòu)的變化,會(huì)多出一個(gè) prompt_encoder 部分
print('PEFT 模型結(jié)構(gòu):', model)
# 檢查可訓(xùn)練參數(shù):打印并對(duì)比可訓(xùn)練參數(shù)的數(shù)量和總參數(shù)數(shù)量。
model.print_trainable_parameters()    #  'trainable parameters' 遠(yuǎn)小于 'all parameters'。

第五步: 配置訓(xùn)練參數(shù)

args = TrainingArguments(
    output_dir='./chatbot_prompt_tuning_explained_zh',  
    per_device_train_batch_size=1,  
    gradient_accumulation_steps=8,    # 梯度累積:相當(dāng)于有效批次大小為 1 * 8 = 8,對(duì)于顯存有限的情況有用
    logging_steps=10,              # 每訓(xùn)練 10 步,打印一次日志信息(如loss)
    num_train_epochs=1,            # 訓(xùn)練輪數(shù)
    save_steps=100,                # 每訓(xùn)練 100 步,保存一次模型檢查點(diǎn)(checkpoint)
    # learning_rate=1e-3,          # Prompt Tuning 通??梢允褂帽韧耆⒄{(diào)稍大的學(xué)習(xí)率
    # gradient_checkpointing=True, # 可以節(jié)省顯存,稍慢一點(diǎn),如果顯存不足可以開啟
)

第六步: 創(chuàng)建訓(xùn)練器

trainer = Trainer(
    model=model,
    args=args,
    tokenizer=tokenizer,
    train_dataset=tokenized_ds, 
    data_collator=DataCollatorForSeq2Seq(tokenizer=tokenizer, padding=True),# 數(shù)據(jù)整理器:負(fù)責(zé)將數(shù)據(jù)集中的樣本組成一個(gè)批次(batch),并進(jìn)行必要的填充(padding)
)

第七步: 模型訓(xùn)練

 trainer.train() # 僅優(yōu)化虛擬token的參數(shù),基礎(chǔ)模型的權(quán)重凍結(jié)。

第八步: 模型推理與效果展示

Prompt-Tuning推理:

  1. 1. 推理時(shí),訓(xùn)練好的虛擬token會(huì)自動(dòng)添加到輸入序列前;
  2. 2. 虛擬token相當(dāng)于給模型一個(gè)隱式提示,引導(dǎo)其生成特定風(fēng)格或內(nèi)容的回答;
  3. 3. 用戶無需看到這些虛擬token,它們只在模型內(nèi)部起作用。

標(biāo)準(zhǔn)流程:

  1. 1. 加載原始的基礎(chǔ)模型。
  2. 2. 加載訓(xùn)練好的 PEFT 適配器權(quán)重。
  3. 3. 使用PeftModel.from_pretrained將兩者結(jié)合起來。
# 1. 加載基礎(chǔ)模型
base_model = AutoModelForCausalLM.from_pretrained('D:\\git\\model-download\\bloom-389m-zh')

# 2. 指定 PEFT 適配器權(quán)重所在的目錄
peft_model_path = './chatbot_prompt_tuning_explained_zh/checkpoint-3357/'

# 3. 加載 PEFT 適配器并將其應(yīng)用到基礎(chǔ)模型上
peft_model = PeftModel.from_pretrained(model=base_model, model_id=peft_model_path)

if torch.cuda.is_available():
    peft_model = peft_model.cuda()
    print('模型已移動(dòng)到 GPU。')
else:
    print('未檢測(cè)到 CUDA,將在 CPU 上運(yùn)行推理。')

# 準(zhǔn)備輸入文本
instruction = '考試有哪些技巧?'
input_text = ''
prompt = f'Human: {instruction}\n{input_text}'.strip() + '\n\nAssistant: '
print(f'\n用于推理的輸入 Prompt:\n{prompt}')

# 將輸入文本分詞,轉(zhuǎn)換為tensors,然后移動(dòng)到模型所在的設(shè)備 (CPU 或 GPU)
ipt = tokenizer(prompt, return_tensors='pt').to(peft_model.device)

# 使用 `.generate()` 方法生成回答,PEFT 模型會(huì)自動(dòng)處理軟提示的注入
print('正在生成回答...')
response_ids = peft_model.generate(**ipt, max_length=128, do_sample=True, top_k=50, top_p=0.95, temperature=0.7)

# 將生成的 token IDs 解碼回文本
full_response = tokenizer.decode(response_ids[0], skip_special_tokens=True)    # `skip_special_tokens=True` 會(huì)移除像 <|endoftext|> 這樣的特殊標(biāo)記

# 關(guān)注 'Assistant: ' 后面的內(nèi)容
assistant_response = full_response.split('Assistant: ')[-1]
print(f'\n模型生成的回復(fù):\n{assistant_response}')

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多