2022 年 8 月 24 日

在 CPU 上使用 Channels Last 加速 PyTorch 视觉模型

内存格式对运行视觉模型时的性能有重大影响,通常从性能角度来看,通道最后(Channels Last)格式更为有利,因为它具有更好的数据局部性。本文将介绍内存格式的根本概念,并通过在 Intel® Xeon® Scalable 处理器上使用通道最后格式对流行的 PyTorch 视觉模型进行性能展示。

阅读更多

2022 年 8 月 18 日

使用新的 API 轻松列出和初始化模型

TorchVision 现在支持通过名称列出和初始化所有可用的内置模型和权重。这个新的 API 建立在最近引入的多权重支持 API 之上,目前处于 Beta 测试阶段,并解决了社区长期以来的一个请求。您可以在 TorchVision 的最新夜间版本中尝试这个新 API。我们正在收集反馈,以便在 TorchVision v0.14 中最终确定该功能。我们已在 Github 上创建了一个专门的 Issue,您可以在那里发表您的评论...

阅读更多

2022 年 8 月 16 日

在 Intel® Xeon®可扩展处理器上赋能 PyTorch 使用 Bfloat16

概述近年来,人工智能模型的日益复杂对硬件的计算能力提出了更高的要求。为了解决这个问题,提出了降低精度的数值格式。Bfloat16 是一种专为人工智能设计的自定义 16 位浮点格式,它包含一个符号位、八个指数位和七个尾数位。与 float32 相同的动态范围,bfloat16 不需要特殊的处理,如损失缩放。因此,bfloat16 可以无缝替换...

阅读更多

2022 年 7 月 22 日

介绍 PlayTorch 应用:快速创建移动 AI 体验

12 月,我们宣布推出 PyTorch Live,这是一个用于在几分钟内构建 AI 驱动的移动原型的工具包。初始版本包括一个命令行界面来设置开发环境,以及一个用于在 React Native 中构建 AI 驱动的体验的 SDK。今天,我们很高兴地宣布 PyTorch Live 将更名为 PlayTorch。这个新版本提供了改进和简化的开发者体验。PlayTorch 的开发独立于 PyTorch 项目,并且...

阅读更多

2022 年 7 月 19 日

每位用户都应该了解的 PyTorch 混合精度训练

现代神经网络的高效训练通常依赖于使用低精度数据类型。在 A100 GPU 上,峰值 float16 矩阵乘法和卷积性能比峰值 float32 性能快 16 倍。由于 float16 和 bfloat16 数据类型只有 float32 的一半大小,它们可以将带宽受限内核的性能翻倍,并减少训练网络所需的内存,从而允许使用更大的模型、更大的批次或更大的输入。使用像 torch.amp 这样的模块...

阅读更多

2022 年 7 月 15 日

案例研究:PathAI 利用 PyTorch 通过 AI 驱动的病理学提高患者预后

PathAI 是领先的 AI 驱动病理学技术工具和服务提供商。我们的平台旨在通过利用机器学习的现代方法,如图像分割、图神经网络和多个实例学习,显著提高复杂疾病的诊断准确性和治疗效果测量。传统的手动病理学容易受到主观性和观察者变异性的影响,这可能导致...

阅读更多

2022 年 7 月 12 日

更好的 Transformer,实现快速 Transformer 推理

tl;dr 变换器在 NLP 领域取得了最先进的性能,并且正在成为众多其他任务的流行选择。它们在计算上非常昂贵,这已经成为它们广泛生产化的障碍。随着 PyTorch 1.12 的发布,BetterTransformer 实现了与 torch.nn.TransformerEncoder 向后兼容的快速路径,并且不需要模型作者修改他们的模型。BetterTransformer 的改进可以在速度上超过 2 倍,并且...

阅读更多