人工智能知识库

标签: RLHF

此标签下有8条笔记。

  • 2026年4月18日

    AI安全与对齐

    • AI-Hardness
    • 安全对齐
    • RLHF
    • Constitutional-AI
    • 对抗攻击
    • 人工智能
  • 2026年4月18日

    幻觉缓解策略

    • AI-Hardness
    • LLM
    • Hallucination
    • RLHF
    • RAG
  • 2026年4月18日

    DPO深度指南

    • RLHF
    • DPO
    • 对齐
    • 大模型训练
    • 偏好优化
  • 2026年4月18日

    KTO对齐

    • RLHF
    • KTO
    • 对齐
    • Kahneman-Tversky优化
    • 人类偏好
  • 2026年4月18日

    ORPO对齐

    • RLHF
    • ORPO
    • 对齐
    • 比值比优化
    • 单阶段训练
    • 大模型训练
  • 2026年4月18日

    PPO训练详解

    • RLHF
    • PPO
    • 强化学习
    • 大模型训练
    • 奖励模型
  • 2026年4月18日

    RLHF与对齐索引

    • index
    • RLHF
    • 对齐
    • LLM
  • 2026年4月18日

    偏好数据构建

    • 偏好数据
    • RLHF
    • 数据标注
    • 对齐训练
    • 合成数据

Created with Quartz v4.5.2 © 2026

  • GitHub