非常感谢你们开源了spatial-mllm 的相关工作,这在空间大模型领域提供了非常重要的参考价值。
为了更准确地评估该模型的计算效率,并为后续的复现和微调(Fine-tuning)工作提供算力预估,我想请教一些关于实验环境的细节问题:
硬件型号与显存: 请问训练时使用的是什么型号的显卡(如 H100, A100 80GB 等)?单张卡的实际显存占用大约是多少?
集群规模: 整个训练过程使用了多少个节点(Nodes)?每个节点包含几张显卡?(例如:8 节点 × 8 卡)
训练耗时: * SFT(监督微调)阶段: 在上述配置下,完成该阶段大约耗时多久?
RL(强化学习)阶段: 如果涉及强化学习(如 PPO/GRPO 等),该阶段的训练时长大约是多少?
这些技术指标对于我们进行空间智能相关研究的资源配给至关重要。期待您的解答,再次感谢!
非常感谢你们开源了spatial-mllm 的相关工作,这在空间大模型领域提供了非常重要的参考价值。
为了更准确地评估该模型的计算效率,并为后续的复现和微调(Fine-tuning)工作提供算力预估,我想请教一些关于实验环境的细节问题:
硬件型号与显存: 请问训练时使用的是什么型号的显卡(如 H100, A100 80GB 等)?单张卡的实际显存占用大约是多少?
集群规模: 整个训练过程使用了多少个节点(Nodes)?每个节点包含几张显卡?(例如:8 节点 × 8 卡)
训练耗时: * SFT(监督微调)阶段: 在上述配置下,完成该阶段大约耗时多久?
RL(强化学习)阶段: 如果涉及强化学习(如 PPO/GRPO 等),该阶段的训练时长大约是多少?
这些技术指标对于我们进行空间智能相关研究的资源配给至关重要。期待您的解答,再次感谢!