人工智能知识库

Home

❯

人工智能工具实操

❯

大模型调用

❯

开源微调框架

文件夹: 人工智能工具实操/大模型调用/开源微调框架

此文件夹下有6条笔记。

  • 2026年4月18日

    Axolotl使用指南

    • Axolotl
    • YAML配置
    • 多节点训练
    • DeepSpeed
    • 训练恢复
    • 故障排查
    • 分布式训练
    • 高效微调
    • 模型训练
    • SFT/DPO
  • 2026年4月18日

    DeepSpeed训练优化

    • DeepSpeed
    • ZeRO
    • FSDP
    • 混合精度
    • 梯度检查点
    • 分布式训练
    • 显存优化
    • 通信优化
    • GPU训练
    • 模型并行
  • 2026年4月18日

    LLaMA Factory完整指南

    • LLaMA-Factory
    • 微调框架
    • WebUI
    • 命令行
    • 多模态
    • 分布式训练
    • 数据集配置
    • 高效微调
    • PEFT
    • DPO/RLHF
  • 2026年4月18日

    Unsloth使用指南

    • LLM微调
    • Unsloth
    • LoRA
    • QLoRA
    • 高效训练
    • PyTorch
    • 量化训练
    • GPU优化
    • 模型训练
    • 4-bit量化
  • 2026年4月18日

    开源微调框架索引

    • index
    • 微调框架
    • 开源工具
    • LLM
  • 2026年4月18日

    框架对比与选择

    • 框架对比
    • Unsloth
    • LLaMA-Factory
    • Axolotl
    • 选型建议
    • 适用场景
    • 学习曲线
    • 社区支持
    • 开源微调
    • 工具选择

Created with Quartz v4.5.2 © 2026

  • GitHub