Dataset Viewer
The dataset viewer is not available for this dataset.
Job manager crashed while running this job (missing heartbeats).
Error code:   JobManagerCrashedError

Need help to make the dataset viewer work? Make sure to review how to configure the dataset viewer, and open a discussion for direct support.

YAML Metadata Warning:empty or missing yaml metadata in repo card

Check out the documentation for more information.

ASR 诗词纠错系统 — 详细技术文档

基于 ChineseErrorCorrector3-4B (Qwen3-4B) 的 ASR 诗词纠错模型。

当前默认 LoRA 已切换为 ./asr/check/asr_poetry_lora_20260308_191410。 这版模型基于 asr_v4_lite_20260308_164454 训练,在对应 649 条真实评测集上纯生成达到 89.20% 字符准确率、42.84% 句子准确率。


1. 项目概述

1.1 任务定义

ASR 系统在识别诗词古文时会产生大量错误(同音字、近音字、形近字等)。本项目训练纠错模型,将 ASR 错误输出纠正为正确原文。

ASR 输出(错误) 纠错输出(正确) 错误类型
湖月照我影送我至善兮 湖月照我影送我至剡溪 同音字
越人 越人 同音字+生僻字
客喜而笑盏更酌 客喜而笑盏更酌 同音字
临近水源便得一山 林尽水源便得一山 近音字

1.2 基座模型

  • 名称:ChineseErrorCorrector3-4B(HuggingFace
  • 架构:Qwen3ForCausalLM, hidden_size=2560, 36 layers, ~4B 参数
  • 特点:已在大规模中文纠错语料上预训练
  • 本地路径ChineseErrorCorrector3-4B/

2. 目录结构

asr/
├── README.md                            # 本文档
├── report/
│   └── asr_poetry_correction_report.tex # LaTeX 实验报告
│
├── ===== 数据生成脚本 (4 个版本迭代) =====
├── prepare_asr_poetry_data.py           # v1 基础版
├── prepare_full_asr_data.py             # v1 完整版
├── prepare_full_asr_data_v2.py          # v2 真实 ASR 混淆
├── prepare_full_asr_data_v3.py          # v3 拼音系统 + 混淆融合
├── prepare_full_asr_data_v4.py          # v4 古文散文 + 长句 + 负例
│
├── ===== 训练脚本 =====
├── train_asr_poetry_correction.py       # LoRA SFT 训练
├── train_full_sft.py                    # 全量 SFT 训练
│
├── ===== 评估脚本 =====
├── evaluate_model.py                    # 模型评估 (greedy + beam search)
│
├── ===== Shell 启动脚本 =====
├── run_asr_poetry_sft.sh                # LoRA 训练启动
├── run_full_sft.sh                      # 全量 SFT 启动
├── setup_env.sh                         # 环境安装
│
├── ===== 数据 =====
├── chinese-poetry/                      # 诗词语料库 (2246 JSON)
├── data/                                # 真实 ASR 数据 (.rlt)
├── train_data_v3/                       # v3 训练数据
├── train_data_v4/                       # v4 训练数据 (待生成)
│
├── ===== 模型输出 =====
├── output/                              # 模型 checkpoint
├── logs/                                # 训练/评估日志
└── ChineseErrorCorrector3-4B/           # 基座模型权重

3. 数据详细分析

3.1 原始数据来源

(1) 真实 ASR 数据

文件:data/checkpoint-epoch-1-data-parts-idx-3-updates-2330000/rec.SRF_shici_202309.txt.rlt

格式为 LAB(标注)/ REC(识别结果)对:

LAB: 湖 月 照 我 影 送 我 至 剡 溪
REC: 湖 月 照 我 影 送 我 至 善 兮

统计:649 个语音对,100% 含有识别错误,直接用作测试集。

(2) 诗词语料库 chinese-poetry

来源:https://github.com/chinese-poetry/chinese-poetry

子目录 内容 JSON 文件数 特点
全唐诗 唐代诗歌全集 633 主要为 5 言/7 言短句
御定全唐詩 繁体唐诗 900 含注释
宋词 宋代词作 25 长短句
元曲 元代曲目 1 含大量长句
诗经 先秦诗歌 1 四言为主
楚辞 屈原等作品 1 骚体长句
论语 孔子语录 1 散文短句
四书五经 孟子/大学/中庸 3 经典散文
蒙学 古文观止等 13 部 13 含 222 篇经典散文
幽梦影 清代小品文 1 散文
其他 曹操诗集、纳兰性德等 若干 诗词

3.2 v3 训练数据分析

基本统计

数据集 样本数 长度范围 平均长度 平均错误数
训练集 229,694 [2, 32] 5.7 字 1.7 个
验证集 12,090 [2, 24] 5.7 字 1.7 个
测试集 649 [2, 32] 15.0 字 2.4 个

句子长度分布(核心问题)

长度区间 训练集 训练占比 测试集 测试占比 差距
2-4 字 32,976 14.4% 5 0.8%
5-7 字 190,774 83.1% 24 3.7% 训练过剩
8-10 字 4,155 1.8% 127 19.6% 严重不足
11-15 字 1,391 0.6% 202 31.1% 严重不足
16-20 字 297 0.1% 212 32.7% 严重不足
21-32 字 101 0.0% 79 12.2% 严重不足

结论:训练集 97.5% 是 2-7 字短句(唐诗宋词单句),但测试集 76% 是 10+ 字长句(古文散文/多句拼接)。

错误数量分布

错误数 训练集 训练占比 测试集 测试占比
1 105,145 45.8% 286 44.1%
2 94,720 41.2% 166 25.6%
3 28,787 12.5% 84 12.9%
4+ 1,042 0.5% 113 17.4%

结论:训练集高错误率(4+)仅 0.5%,测试集为 17.4%。

字符覆盖率

  • 训练集不同字符数:7,695
  • 测试集不同字符数:1,961
  • 测试集未覆盖字符:3 个(
  • 错误对覆盖率:97.8%(1,484/1,517 测试错误已在训练集中出现)

负例分析

  • 训练集无错误样本:0 条 (0%)
  • 模型从未见过"输入正确→不修改"的场景

训练集 Top-10 错误字符对

排名 错误→正确 出现次数 类型
1 删→山 1,201 同音
2 哗→花 1,101 近音
3 氺→水 929 形近
4 补→不 919 近音
5 来→來 897 繁简
6 尚→上 867 同音
7 云→雲 821 繁简
8 丘→秋 811 同音
9 香→相 782 同音
10 卧→我 753 近音

3.3 v4 数据改进方案

v4 针对上述 3 个关键问题改进:

改进 方法 效果
长句数据 唐诗宋词相邻 2-4 句拼接 (~15 万条) 长句 1.8%→~30%
古文散文 古文观止 222 篇 + 孟子 + 论语 + 楚辞等 覆盖测试集体裁
负例 10% 正确→正确样本 防过度纠正
错误分布 提升 4+ 错误至 ~12% 匹配测试集

4. 代码详细说明

4.1 数据生成脚本 prepare_full_asr_data_v3.py

作用:从诗词语料库生成模拟 ASR 错误的训练数据。

核心类和函数:

组件 作用
PinyinSystem 构建汉字拼音数据库(~20,000 字),提供同音字/近音字查询
ShapeSimilarSystem 基于预定义的 23 组形近字提供形近字替换
ASRErrorSimulator 融合上述两个系统 + 真实 ASR 混淆,按权重生成错误
load_all_poetry() 遍历 chinese-poetry 目录,提取诗句
generate_augmented_data() 对每个正确句子生成 5 个不同错误变体
convert_to_training_format() 转换为 conversations JSON 格式

执行流程:

初始化PinyinSystem → 加载真实混淆(.rlt) → 加载诗词语料
→ 对每条诗句生成5个错误变体 → 去重 → 95/5 划分 → 保存 JSONL

4.2 数据生成脚本 prepare_full_asr_data_v4.py

相比 v3 新增:

新函数 作用
load_classical_prose() 加载古文观止、孟子、论语、楚辞等古文数据
extract_long_clauses() 按句号分割(不按逗号),提取 8-32 字长分句
generate_concatenated_sentences() 从唐诗中拼接相邻 2-4 句生成长句
generate_negative_examples() 生成正确→正确的负例

新增错误数量分布(调整 ERROR_COUNT_DISTRIBUTION):

  • 4 个错误:9%→10%
  • 5 个错误:5%→7%
  • 6-9 个错误:3%→8%

4.3 训练脚本 train_asr_poetry_correction.py

作用:LoRA 微调训练。

核心流程:

args = parse_args()
model = TrainLLM(args)    # 加载模型 + 配置 LoRA
model.train_model(         # HuggingFace Trainer 训练
    train_data=args.train_file,
    eval_data=args.dev_file
)

TrainLLM(位于 ChineseErrorCorrector/llm/train/train_lora.py):

  • __init__:加载模型/分词器,配置量化(可选)
  • find_all_linear_names():自动发现所有线性层名称作为 LoRA 目标
  • train_model():配置 TrainingArguments → 构建 LoRA → 加载数据 → Trainer.train()
  • SavePeftModelTrainer:继承 Trainer,覆写 save_model 保存 LoRA adapter

数据处理ChineseErrorCorrector/utils/llm_dataloader.py):

  • GptSupervisedDataset:带缓存的数据集类
  • preprocess_function():将 conversations 转换为 input_ids + labels(source 部分标记为 IGNORE_INDEX
  • 使用 Qwen chat template:<|im_start|>user\n{query}<|im_end|>\n<|im_start|>assistant\n

4.4 训练脚本 train_full_sft.py

作用:全量(全参数)SFT 微调。

与 LoRA 版本的核心差异:

方面 LoRA 版 全量 SFT 版
模型加载 加载后包裹 get_peft_model 直接加载,所有参数可训练
数据处理 依赖 GptSupervisedDataset 独立实现 FullSFTDataset
Trainer SavePeftModelTrainer(保存 adapter) FullModelTrainer(保存完整模型)
LR 调度 linear(框架默认) cosine(显式设置)
正则化 无 weight_decay weight_decay=0.01
防过拟合 EarlyStoppingCallback

核心函数说明:

函数 作用
preprocess_function() 手动构建 Qwen chat template,source 部分 mask 为 IGNORE_INDEX
FullSFTDataset.__init__() 加载 JSONL → tokenize → 过滤空标签
FullModelTrainer.save_model() 使用 save_pretrained 保存完整模型权重(safetensors 格式)

4.5 评估脚本 evaluate_model.py

核心函数:

函数 作用
load_model() 加载基座模型,可选加载 LoRA 权重并 merge
predict() 单条推理,支持 greedy (num_beams=1) 和 beam search
calculate_metrics() 计算字符级/句子级准确率

推理流程

apply_chat_template → tokenize → model.generate → decode → strip

4.6 Shell 脚本

**run_asr_poetry_sft.sh**:LoRA 训练完整流水线

环境配置 → 检查数据/模型 → 训练 → 评估 → 汇总

**run_full_sft.sh**:全量 SFT 训练流水线

环境配置 → 检查数据(优先v4,回退v3) → 训练 → 评估 → 汇总

**run_eval_retrieval_cpu.sh**:检索增强评测流水线

环境配置 → 读取/构建原文检索源 → doc_span 局部抽取 → 候选重排 → 检索/生成结合评估

5. 实验结果

5.1 实验历史

# 日期 数据 方法 Epochs LR 字符准确率 句子准确率
1 02-02 v1 LoRA r=16 3 2e-5 93.77% 71.49%
2 02-02 v3 LoRA r=16 3 2e-5 ~95% ~80%
3 02-28 v3 LoRA r=32 6 5e-5 98.32% 93.99%
4 02-28 v3 LoRA r=32 6 5e-5 98.60% 95.38%
5 03-08 v4_lite LoRA r=32 6 5e-5 89.20% 42.84%

5.2 最佳模型错误分析(30 个错误案例)

类别 数量 典型案例
严重损坏 (5+ diff) 16 "负载音优闭结成一带下"→原文差异过大
同音字歧义 (1-2 diff) 10 君/军, 吴/吾, 临/林, 瞳/曈
中等错误 (3-4 diff) 4 古文词汇理解不足

5.3 检索增强专项进展(2026-03-09)

  • 专项总结文档:report/retrieval_doc_span_task_summary_20260309.md
  • 当前最新、最可信的可比检索增强结果已更新为 20260309_011231
    • 字符准确率:86.14%
    • 句子准确率:48.84%317/649
    • retrieval_rerank 精度:139/200 = 69.50%
  • 相比旧基线 20260309_00094630.82%),这一轮句子准确率提升了 18.02 个点,正确句数增加 117 条。
  • 当前默认 LoRA 已切到 ./asr/check/asr_poetry_lora_20260308_191410;它来自 asr_v4_lite_20260308_164454,纯生成结果为 89.20% / 42.84%,而 retrieval 版本已经把总句准继续拉到 48.84%
  • 新结果的策略分布为:retrieval_rerank=200fallback_generate=383generate_no_local_span=65generate_no_candidate=1;对应精度分别为 69.50%39.16%41.54%100%
  • 这说明当前收益主要来自两点:更强的默认生成模型,以及在保持较高 precision 的前提下显著扩大了 retrieval 接管覆盖;但 generate_no_local_span 仍有 65 条,说明“拿不到可接管 span”的问题还没有真正解决。
  • 当前默认检索顺序已调整为“小补库 -> classical_modern_originals.jsonl -> chinese-poetry”,且 ASR_RETRIEVAL_MAX_CANDIDATES 已上调到 1000000;这样 classical_modern_originals.jsonl 会优先进入实际索引,不再被旧顺序直接截断在后面。
  • 20260309_000946 以及旧文档里 33.13% ~ 34.82% 的离线投影,现在都只保留为旧模型口径下的历史参考,不再代表当前默认配置上限。

6. 使用方法

# 1. 生成 v4 数据
python prepare_full_asr_data_v4.py

# 2. 训练(二选一)
bash run_asr_poetry_sft.sh    # LoRA 微调
bash run_full_sft.sh           # 全量 SFT

# 3. 评估
python evaluate_model.py \
    --base_model ChineseErrorCorrector3-4B \
    --lora_path ./asr/check/asr_poetry_lora_20260308_191410 \
    --test_file ./asr/log1/asr_v4_lite_20260308_164454/test_real_asr.jsonl \
    --num_beams 4

# 4. 检索增强评估(脚本默认 LoRA 已切到 20260308_191410)
bash run_eval_retrieval_cpu.sh
Downloads last month
13,632