• 文档 >
  • 火炬分布式弹性 >
  • 定制化
快捷键

定制化 ¶

本节描述如何定制 TorchElastic 以满足您的需求。

启动器 ¶

与 TorchElastic 一起提供的启动程序应该适用于大多数用例(参见 torchrun(弹性启动))。您可以通过以下方式程序化创建代理并传递您的工作进程规格来实现自定义启动程序。

# my_launcher.py

if __name__ == "__main__":
  args = parse_args(sys.argv[1:])
  rdzv_handler = RendezvousHandler(...)
  spec = WorkerSpec(
      local_world_size=args.nproc_per_node,
      fn=trainer_entrypoint_fn,
      args=(trainer_entrypoint_fn args.fn_args,...),
      rdzv_handler=rdzv_handler,
      max_restarts=args.max_restarts,
      monitor_interval=args.monitor_interval,
  )

  agent = LocalElasticAgent(spec, start_method="spawn")
  try:
      run_result = agent.run()
      if run_result.is_failed():
          print(f"worker 0 failed with: run_result.failures[0]")
      else:
          print(f"worker 0 return value is: run_result.return_values[0]")
  except Exception ex:
      # handle exception

集合点处理器

要实现自己的集合点,请扩展 torch.distributed.elastic.rendezvous.RendezvousHandler 并实现其方法。

警告

集合点处理器实现较为复杂。在开始之前,请确保您完全理解集合点的属性。请参阅集合点获取更多信息。

一旦实施,您可以在创建代理时将自定义 rendezvous 处理器传递给工作规范。

spec = WorkerSpec(
    rdzv_handler=MyRendezvousHandler(params),
    ...
)
elastic_agent = LocalElasticAgent(spec, start_method=start_method)
elastic_agent.run(spec.role)

指标处理器 ¶

TorchElastic 发射平台级指标(见指标)。默认情况下,指标被发送到 /dev/null,因此您将看不到它们。要将指标推送到您基础设施中的指标处理服务,请实现 torch.distributed.elastic.metrics.MetricHandler 并在自定义启动器中进行配置。

# my_launcher.py

import torch.distributed.elastic.metrics as metrics

class MyMetricHandler(metrics.MetricHandler):
    def emit(self, metric_data: metrics.MetricData):
        # push metric_data to your metric sink

def main():
  metrics.configure(MyMetricHandler())

  spec = WorkerSpec(...)
  agent = LocalElasticAgent(spec)
  agent.run()

事件处理器 ¶

TorchElastic 支持事件记录(见事件)。事件模块定义了 API,允许您记录事件并实现自定义 EventHandler。EventHandler 用于将 torchelastic 执行过程中产生的事件发布到不同的来源,例如 AWS CloudWatch。默认情况下,它使用 torch.distributed.elastic.events.NullEventHandler 来忽略事件。要配置自定义事件处理器,您需要实现 torch.distributed.elastic.events.EventHandler 接口并在自定义启动器中配置它。

# my_launcher.py

import torch.distributed.elastic.events as events

class MyEventHandler(events.EventHandler):
    def record(self, event: events.Event):
        # process event

def main():
  events.configure(MyEventHandler())

  spec = WorkerSpec(...)
  agent = LocalElasticAgent(spec)
  agent.run()

© 版权所有 PyTorch 贡献者。

使用 Sphinx 构建,主题由 Read the Docs 提供。

文档

查看 PyTorch 的全面开发者文档

查看文档

教程

深入了解初学者和高级开发者的教程

查看教程

资源

查找开发资源并获得您的疑问解答

查看资源