本文详细记录了针对 DeepSeek-Coder-7B-base-v1.5 模型,结合 HuatuoGPT 医疗对话数据进行 SFT(Supervised Fine-Tuning) 的全过程。记录从最初设计到逐步调试的每一步,包括所做的改动、背后的原因、遇到的问题、解决方案以及最终结果。1. 项目背景与目标本次任务的目标是:首先加载基模型,在这个项目中基模型为 DeepSeek-Coder-7B-base-v1.5 。加载已有的 LoRA checkpoint(checkpoint-2000),在此基础上继续微调。使用 Freedom...

閱讀全文...

📋 项目概述本文记录了一次完整的医疗AI模型评估系统搭建过程,涉及将自训练的Medical GPT模型接入HealthBench评估框架,并使用DeepSeek Chat作为评分器的完整技术实现。技术栈:评估框架:simple-evals + HealthBench被评估模型:DeepSeek Coder 7B + QLoRA微调 (Medical GPT)评分模型:DeepSeek Chat (DeepSeek-V3)环境:AutoDL GPU实例🎯 项目目标将自训练的Medical GPT模型集成到HealthBench评估框架使...

閱讀全文...

项目概述本项目基于 DeepSeek-Coder-7B-Base-v1.5 模型,使用华佗医疗问答数据集进行增量预训练,旨在提升模型在医疗领域的问答能力。采用 LoRA (Low-Rank Adaptation) 技术进行参数高效微调。技术栈基础模型: DeepSeek-Coder-7B-Base-v1.5 (6.9B 参数)数据集: shibing624/huatuo_medical_qa_sharegpt (27万+ 医疗问答对)训练方法: LoRA (Low-Rank Adaptation)硬件: NVIDIA RTX 5090...

閱讀全文...

项目概述本文档记录了在 RTX 5090 GPU 环境下搭建 MedicalGPT 预训练环境并成功完成训练的完整过程。项目基于 Qwen2.5-0.5B 模型,使用 LoRA (PEFT) 方法进行预训练。环境信息操作系统: Linux 5.15.0-94-genericGPU: NVIDIA GeForce RTX 5090Python: 3.11.5 (从 3.8.10 升级)PyTorch: 2.9.0.dev20250805+cu128 (nightly 版本)CUDA: 12.8初始环境检查首先检查了当前环境的基本信息:p...

閱讀全文...

在 LLM Agent 训练中,有时存在需要通过代码行号进行补全的方法。这个脚本给任意给定的代码行统一添加代码行号。import json import re import argparse def add_line_numbers_to_input(input_jsonl_path, output_jsonl_path): with open(input_jsonl_path, 'r', encoding='utf-8') as fin, \ open(output_jsonl_path, 'w', en...

閱讀全文...