使用不带 thinking 的数据集微调时无法正常生成

#46
by HuanLin - opened

我和@yanyongyu 均出现了这个问题

我使用的是 Alpaca 格式的数据集,@yanyongyu 是按照 chat template 来的

我的复现流程

  1. 使用笔记本
  2. 笔记本第二个代码块 model_name 改成 unsloth/DeepSeek-R1-Distill-Qwen-7B-unsloth-bnb-4bit
  3. 数据集使用 ssbuild/alpaca_medical
  4. 直接用默认参数训练,然后进行推理

现象

  • 集内胡言乱语
  • 集外 ("你是谁") 停不下来

9590640c9e8cba79cdcf88dec7f0f530.png

98d13e15025eafa6f1bece2054cab037.png
(疑似是干到 max_token 了,后面的 eos 貌似是 tokenizer decode 的时候加的)

@yanyongyu 的复现流程等会他来补充

我使用的闭源数据集,因此数据相关部分就省略代替。微调模型使用的是 distill qwen 7b。短暂训练后出现模型无限输出(重复一小段话,然后出现乱码,多为问号和句号),不出 eos 的情况。

训练采用 trl.SFTTrainer,数据集预处理后采用 trl 可接受的 chat template 输入格式,即 {"prompt": "xxx", "completion": "xxx"},trl 会使用 tokenizer.apply_chat_template 预处理。数据不含 thinking 信息,仅有 prompt 和 answer。检查了训练集在 apply chat template 之后包含 eos token,tokenize 之后也存在 151643。

样例代码:

MODEL_NAME = "./data/DeepSeek-R1-Distill-Qwen-7B"

args = SFTConfig(
    output_dir=OUTPUT_DIR,
    do_train=True,
    logging_first_step=True,
    logging_dir=LOG_DIR,
    logging_steps=100,
    save_strategy=IntervalStrategy.EPOCH,
    save_steps=1,
    num_train_epochs=TRAIN_EPOCHS,
    optim=OptimizerNames.ADAMW_TORCH,
    per_device_train_batch_size=BATCH_SIZE,
    gradient_accumulation_steps=GRADIENT_ACCUMULATION_STEPS,
    learning_rate=LEARNING_RATE,
    weight_decay=WEIGHT_DECAY,
    warmup_ratio=WARMUP_RATIO,
    max_seq_length=1024,
)

with args.main_process_first(local=False, desc="loading tokenizer"):
    tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)

with args.main_process_first(local=False, desc="loading model"):
    model = Qwen2ForCausalLM.from_pretrained(MODEL_NAME, torch_dtype="auto", device_map="auto")

def preprocess_dataset(batch: dict[str, list[str]]):
    return {"prompt": batch["input"], "completion": batch["target"]}

with args.main_process_first(local=False, desc="loading dataset"):
    train_dataset = Dataset()  # load dataset here
    # preprocess
    train_dataset = train_dataset.map(
        preprocess_dataset, batched=True, remove_columns=train_dataset.column_names
    )

trainer = SFTTrainer(
    model,
    args=args,
    processing_class=tokenizer,
    train_dataset=train_dataset,
)

if __name__ == "__main__":
    print("Start training...")  # noqa: T201
    trainer.train()
HuanLin changed discussion title from 使用不带 thinking 的数据集微调时出现停不下来的问题 to 使用不带 thinking 的数据集微调时无法正常生成

Sign up or log in to comment