Skip to content

关于模型训练的硬件配置、节点规模及 SFT/RL 耗时细节 #26

@zhaosb-star

Description

@zhaosb-star

非常感谢你们开源了spatial-mllm 的相关工作,这在空间大模型领域提供了非常重要的参考价值。

为了更准确地评估该模型的计算效率,并为后续的复现和微调(Fine-tuning)工作提供算力预估,我想请教一些关于实验环境的细节问题:

硬件型号与显存: 请问训练时使用的是什么型号的显卡(如 H100, A100 80GB 等)?单张卡的实际显存占用大约是多少?

集群规模: 整个训练过程使用了多少个节点(Nodes)?每个节点包含几张显卡?(例如:8 节点 × 8 卡)

训练耗时: * SFT(监督微调)阶段: 在上述配置下,完成该阶段大约耗时多久?

RL(强化学习)阶段: 如果涉及强化学习(如 PPO/GRPO 等),该阶段的训练时长大约是多少?

这些技术指标对于我们进行空间智能相关研究的资源配给至关重要。期待您的解答,再次感谢!

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Type

    No type

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions