在本地运行 PyTorch 或快速开始使用支持的云平台之一
PyTorch 教程中有什么新内容
熟悉 PyTorch 的概念和模块
精简版、可直接部署的 PyTorch 代码示例
通过我们引人入胜的 YouTube 教程系列掌握 PyTorch 基础知识
了解 PyTorch 生态系统中的工具和框架
加入 PyTorch 开发者社区,贡献、学习并获得问题解答
讨论 PyTorch 代码、问题、安装、研究的地方
查找资源并解答问题
本年度 PyTorch 大会获奖者揭晓
为边缘设备构建创新和隐私感知的 AI 体验
实现移动和边缘设备端到端推理能力的解决方案
探索文档以获取全面指导,了解如何使用 PyTorch
阅读 PyTorch Domains 文档,了解更多关于特定领域库的信息
Catch up on the latest technical news and happenings
PyTorch 生态系统故事
了解最新的 PyTorch 教程、新内容等
了解我们的社区如何使用 PyTorch 解决真实、日常的机器学习问题
查找活动、网络研讨会和播客
跟踪最新更新
了解更多关于 PyTorch 基金会
PyTorch 食谱
PyTorch 入门
torch.autograd
学习 PyTorch
non_blocking
pin_memory()
图像和视频
音频
后端
强化学习
在生产中部署 PyTorch 模型
PyTorch 性能分析
使用 FX 进行代码转换
前端 API
扩展 PyTorch
模型优化
torch.compile
并行与分布式训练
基于 ExecuTorch 的边缘计算
推荐系统
多模态
食谱是使用特定 PyTorch 功能的短小、可操作的示例,与我们的完整教程不同。
学习如何使用 PyTorch 的 torch.nn 包为 MNIST 数据集创建和定义神经网络。
基础知识
学习如何在 PyTorch 中保存或加载模型时使用 state_dict 对象和 Python 字典
了解在 PyTorch 中进行推理时保存和加载模型的两种方法 - 通过 state_dict 和整个模型。
保存和加载多个检查点对于在停止的地方继续推理或恢复训练非常有用。在本教程中,我们将探讨如何保存和加载多个检查点。
在本菜谱中,了解保存和加载多个模型如何有助于重用之前训练的模型。
学习如何通过部分加载模型或加载部分模型来预热启动训练过程,这可以帮助您的模型比从头开始训练更快地收敛。
使用 PyTorch 在不同设备(CPU 和 GPU)之间保存和加载模型相对简单。
了解何时应该归零梯度以及这样做如何有助于提高模型的准确性。
学习如何使用 PyTorch 的基准测试模块来衡量和比较代码的性能
学习如何测量代码片段运行时间和收集指令。
学习如何使用 PyTorch 的剖析器来测量算子时间和内存消耗
学习如何使用 PyTorch 的剖析器与仪器和跟踪技术 API(ITT API)在 Intel® VTune™剖析器 GUI 中可视化算子标记
学习如何使用 torch.compile IPEX 后端
学习如何使用 torch.compiler.set_stance
编译器
学习如何使用元设备来推理模型中的形状。
学习从检查点加载 nn.Module 的技巧。
学习如何使用 torch 日志 API 来观察编译过程。
nn.Module 中的新扩展点
学习如何使用 AOTInductor 进行 Python 运行时的端到端示例。
学习如何导出适用于常见用例的模型
编译器,TorchCompile
学习如何使用 Captum 将图像分类器的预测结果与其对应的图像特征关联,并可视化归因结果。
可解释性,Captum
学习 TensorBoard 与 PyTorch 的基本使用,以及如何在 TensorBoard UI 中可视化数据
可视化,TensorBoard
将动态量化应用于简单的 LSTM 模型。
量化,文本,模型优化
学习如何将训练好的模型导出为 TorchScript 格式,以及如何在 C++中加载 TorchScript 模型并进行推理。
TorchScript
学习如何使用 Flask,一个轻量级 Web 服务器,快速从您的训练好的 PyTorch 模型设置 Web API。
生产,TorchScript
使用 PyTorch 在移动设备(Android 和 iOS)上优化的秘籍列表。
移动,模型优化
学习如何从头开始制作使用 LibTorch C++ API 的 Android 应用程序,并使用自定义 C++运算符的 TorchScript 模型。
移动
学习如何将一系列 PyTorch 模块融合成一个单一模块,以在量化之前减小模型大小。
学习如何在不损失太多准确性的情况下减小模型大小并使其运行更快。
移动,量化
学习如何将模型转换为 TorchScript,并(可选)为移动应用优化。
学习如何在 iOS 项目中添加模型并使用 PyTorch pod。
学习如何在 Android 项目中添加模型并使用 PyTorch 库。
学习如何在 iOS 和 Android 设备上使用移动解释器。
如何使用 PyTorch 分析器对基于 RPC 的工作负载进行性能分析。
生产环境
使用 torch.cuda.amp 在 NVIDIA GPU 上减少运行时间和节省内存。
实现最佳性能的技巧。
如何使用 run_cpu 脚本在 Intel® Xeon® CPU 上实现最佳运行时配置。
在 AWS Graviton CPU 上实现最佳推理性能的技巧
学习利用 Intel®高级矩阵扩展
使用 torch.compile 加速优化器
使用 LRScheduler 和 torch.compile 优化器加速训练
学习如何使用 torch.compile 中的用户定义内核
学习如何在 ``torch.compile`` 中使用编译时缓存
学习如何在 ``torch.compile`` 中配置编译时缓存
学习如何使用区域编译来控制冷启动编译时间
Intel® 对 PyTorch* 的扩展介绍
使用 Intel® Neural Compressor 为 PyTorch 进行易用性量化。
量化、模型优化
学习如何使用 DeviceMesh
分布式训练
如何使用零冗余优化器来减少内存消耗。
如何使用 RPC 实现 GPU 到 GPU 的直接通信。
如何启用分布式优化器的 TorchScript 支持。
分布式训练,TorchScript
使用分布式检查点包学习如何检查点分布式模型。
学习如何使用 CommDebugMode 进行 DTensors
学习如何在 Vertex AI 中使用 TorchServe 部署模型
访问 PyTorch 的全面开发者文档
获取初学者和高级开发者的深入教程
查找开发资源并获得您的疑问解答
为了分析流量并优化您的体验,我们在本网站上提供 cookies。通过点击或导航,您同意允许我们使用 cookies。作为本站点的当前维护者,适用 Facebook 的 Cookies 政策。了解更多信息,包括可用的控制选项:Cookies 政策。