网盘聚合搜索 - 壹搜网为您找到"
Pytorch 60 分钟 入门
"相关结果 15条2024年2月4日 · (不建议新手这样做) (3)等待安装完成。 查看pytorch环境是否安装成功: 要记得先进入之前创建的环境中,然后依次输入蓝色方格中的代码,没有报错,且最后输出True,则说 …
www.zhihu.comfarfar在视频中介绍了如何使用PyTorch设置卷积层和池化层,并构建了一个简单的数字识别卷积神经网络模型。视频涵盖了从数据加载到网络层设置的详细步骤,并解释了每个参数的意义。
page.sm.cn2025年10月1日 · 1. 社区和生态. PyTorch; 依然是研究界的第一选择,NeurIPS/ICML/ACL 等论文中超过 80% 使用 PyTorch。 Hugging Face、Lightning、OpenMMLab 等几乎所有热
www.zhihu.com今晚给大家带来这个分布式训练。PyTorch实际上是一个人工智能框架,今晚我们会使用这个PyTorch以及分布式的训练。好,咱们今天晚上说分布式来去训练模型。首先我们如果先不去分布式训练,我们先把这个PyTorch给它去使用一下。大家可以看到,事实上这里面当前这个代码大家能看到吗?像这里面你可以看到,首先这边import torch,这个实际上就是PyTorch。当然首先我们在这个环境里面,我已经安装了这个PyTorch了,这些导包我就不再一一去说了。我们往下来看,实际上这里面我们可以看到,首先这边device等于cuda,这个是我们未来想把这个我们待会儿想把这个代码跑在GPU上面。当前我这边是远程登录了一个服务器节点。这边我把这个关掉,重新打开一个窗口。大家可以看到当前这个服务器节点列表服务器节点,实际上它是有两张显卡。大家可以看到这里面有两张显卡,这两张显卡的型号都是这个英伟达的RTX 3080 Ti,每张显卡大概有十二G的这样一个显存。首先我们先来看这个PyTorch来去训练一个模型。这两行十一行和十二行这两行相当于是他会去读一个数据,他会去读一个数据。如果这个数据你本地没有,他会把这个数据给你下载到这边,我们指定的data文件夹里面去。这边在当前这个脚本平行这个目录左边大家看到只有一个data文件夹,这个data文件夹,它下面会有一个MNIST,这个事实上是一个手写数字识别的这样一个数据集,然后这下面会有测试集和训练集,这边会有用于测试的数据集,然后下面这边会有用于训练的,用于训练的train训练集。接下来我们下面这边是通过DataLoader,然后把这个训练集和测试集给它去加载一下,这个加载顺便指明一下一些参数。然后这边有了trainloader和testloader。我们的数据就可以回头通过这两个loader给它去读进来。接下来这一部分是相当于是构建一个神经网络,这边大家都知道这个人工智能,目前很多时候都是基于神经网络的,这样的一个人工智能。这块这个Convolutional Neural Network相当于是去创建一个卷积神经网络,相当于是在创建一个卷积神经网络。卷积神经网络往往它比较适合用于这个图像的相关的一些识别,它比较适合用于图像的一些识别。这块我这个红色框里的这一部分相当于就是再去构建一个卷积神经网络,这个地方你如果再往下面去细看,你会发现这里面会有具体的一些神经网络层,比如说这块有卷积层,然后会有归一化,就是会有归一化层,然后会有非线性变化,会有池化。然后接下来再继续去做这个卷积,然后会有非线性变化。然后还有max pooling,这个最大值池化。然后这里面你可以发现会有这个卷积核,这个相当于就是五乘五的卷积核,下面这个也是五乘五的卷积核。然后再往下这边是输出层,这个输出层相当于是一个全连接的,是一个全连接。然后最后这边的num_classes这边写的是十,相当于是要去做一个十分类,相当于做一个十分类为。为什么要去写十?是因为这个数据集有很多同学知道这个数据集,它是一个手写数字识别的这样一个数字集,它事实上就是识别这个零到九这样的数字,比如说一张图像里面,他写了个零,然后把这个零带到我们这个Convolution Neural Network里面去。然后这样,这个神经网络它会来去预测一个结果,比如它要是预测零,那就对了,他要是预测其他的,比如预测一那个错了。就是这样的一个神经网络,它来去做这样的分类的。那这块就是再去定义这个神经网络。然后定义完这个神经网络之后,我们可以把这样神经网络给它放到GPU上面去。然后接着,这块会有optimizer,会有优化器,那这块这个优化器相当于干什么?这个就这块这个优化器是这个随机梯度下降,它相当于是在去优化这个神经网络,就是通过优化器,后来去调整,调整这个神经网络里面的parameter参数,parameter参数。下面这边这块儿是一个loss,是来定义一个损失函数。总之这个事实上就是一些这个训练神经网络,它对应的一些套路,相当于就是我们在这里面去定义这个神经网络上面读这个数据,有数据,有神经网络之后,我们来去定义优化器和损失函数。然后接着我们就把模型切换到一个训练的模式。然后接下来这边,比如说设置两轮,就是训练两个轮次,训练两个轮次,让它把所有的数据学习两遍。接下来这边就是分轮次分批次来去进行一个训练,然后这边相当于是通过Autograd,后来去进行一个优化。这边相当于是把loss反向传播,然后Autograd step它就来去进行一个更新。他来去进行一个参数的更新,然后下面这边去打印一下,这个跑到第几轮了,然后相对应的平均的损失是多少,然后下面打印一个训练的时长是多少。然后训练完了之后,我们可以把模型切换到一个evaluation评估的模式。然后下面这边分批次的来去评估我们的这个测试集这样一个准确率。这样的这个这样的一个Python脚本,相当于就是来去设计一个卷积神经网络,然后来去学习该如何对手写数字识别这样的数据集来去进行一个预测。那这块我把这个脚本现在给它跑起来,就是在我们当前下面这个的窗口里面,我们在这里面输入python,然后这边我们输入MNIST.py,那这个不就是去通过Python执行这个.py脚本吗?来去执行这个Python脚本。我们这里面现在去回车。然后它在训练过程当中,我们这边再通过英伟达nvidia-smi来看一下它对于显卡的占用。大家可以看到它其实你可以看到这里面,它其实这两张显卡,它其实只占用了一张大家看这个位置,大家看这个位置,它其实只是利用了这个零号,这个显卡看到了吗?它只是利用了零号这个显卡,相当于就是我们当前这个机器有两张显卡,它只用了一张显卡,也就是当前这个脚本并没有去分布式的来去训练。那这边同学说老师这个模型这么小吗?对,因为我们这边设计这个神经网络,事实上只有几层,所以这个相当于不会太占这个显存,所以四百多兆这个很正常。然后这边百分之七的一个利用率,因为这个显卡实际上还是3080 Ti,其实也是比较好的这个显卡了,相对来说也是中等水平的这个显卡吧,实际上这里面来去跑这个神经网络,实际上是非常轻松的。我们来看另外这个这边执行完了没有,你看这边是哪儿打印的?是我们刚才这块打印的,这块print打印的,打印的这个两轮里面的第一轮,然后它的平均损失0.84,然后打印第二轮,训练完了之后,平均损失是0.32,然后整个训练的一个时长,12.92秒。最终这边最终这块有个accuracy是哪打印的?是最后这个测试集使用完了之后来去打印的测试集上面的准确率,94.28。今天晚上我们并不是说要把这个神经网络给它调的多好,让这个准确率达到最高。这个不是我们今天晚上的目的,我们今天晚上的目的是来看看分布式训练。这块大家明白吗?实际上你可以看到这个PyTorch实际上还是非常好用的。大家可以看到整个这个脚本,刚才我们看这个脚本,事实上这边77行就已经来去跑了一个神经网络的这样一个训练。然后那这里面其实这边有同学说,其实听的不是很懂,那我给他稍微的写一下注释,那这块儿就是读数据,你要训练模型,肯定需要什么?肯定需要灌给这个灌给这个模型数据。就让它有就是有东西学,就说白了让这个模型有东西去学。然后那下面这一块是来去定义这个神经网络模型,长什么样子?那有数据了,有模型了。那接下来去这个设置,设置一点超参。然后接下来这边,我们在这块儿,相当于就是前面都准备好了之后,那我们就分批次,分轮次分批次的进行训练。训练完了之后,在这个位置下面这一小段就是训练好之后,使用测试集数据对训练之后的模型进行预测评估。那刚才这块分轮次分批次的这个使用训练集数据对模型进行训练。那如果我们非要写上编号,那第一步读数据,第二步定义模型,第三步设置一点超参,然后第四步训练,第五步评估。这个同学刚才说听的不是很懂的,这个同学现在明白了吗?小白同学其实也能看懂吧,不是非常费劲吧。你可以看到这一段代码,事实上就81行实际上就完成了一个神经网络的一个训练。那我们刚才可以看到,在刚才训练的过程当中,我再给同学去强调在刚才训练的过程当中,这是刚才训练过程当中,我来打印的这个显卡的这个使用,那我们这块儿有两张显卡,有两张显卡零号和一号。但是在刚才训练过程当中,其实这里面只使用了一张显卡,它只使用了一张显卡,那也就是说其实这个资源的利用率并不高,资源的利用率并不高。同学说老师,那这个地方是因为我们此时此刻刚才给大家展示的这个数据,还有这个模型就是数据不卡,模型不大。所以刚才这里面一张显卡,事实上就能把它来去进行训练。那反过来说,如果我们的这个数据它变多的情况下,如果这个模型它的体积不是四百多兆。这个模型的体积,比如说是几十个G,那这样的情况下,那往往一张显卡事实上是无法来去进行训练的,那我们可能会需要两张显卡,四张显卡、八张显卡以此类推。所以在这个地方刚才去说了一下,就是在这边刚才训练过程当中,只用了一张显卡,这块大家能听懂吗?
page.sm.cn2025年7月6日 · CSDN问答为您找到问题:如何用pip安装GPU版本的PyTorch?相关问题答案,如果想了解更多关于问题:如何用pip安装GPU版本的PyTorch? 青少年编程 技术问题等相关问答,请访 …
ask.csdn.net【2026版】这绝对是B站最好的PyTorch入门天花板教程,清华大佬强力打造!从入门到进阶,全程干货讲解,零基础也能轻松学会!深度学习算法
page.sm.cn强推!2025最新版PyTorch深度学习快速入门教程(绝对通俗易懂!)深度学习/人工智能/神经网络我是小土堆a
page.sm.cn2025年8月25日 · 如题,一些项目采用的是低版本的pytorch+cuda,例如pytorch1.10.0+cuda11.3,50系列显卡安装驱动nvidia57…
www.zhihu.com60分钟Pytorch从入门到精通!对零基础小白超友好的Pytorch教程,一套解决Pytorch框架所有问题!深度学习/人工智能/神经网络共计33条视频,包括:1 pytorch的安装方法、2.(重点)零基础转行入门...
m.bilibili.com2025年7月16日 · Pytorch 对这些神经网络模型中的基本运算进行了封装,以最大限度地实现复用。 比如,要实现一个卷积运算,只要调用 conv2d 这个函数。 而且 Pytorch 也实现了自动求导,这使得神经 …
www.zhihu.com1) 读取和归一化 CIFAR10 2) 定义一个卷积神经网络 3) 定义损失函数和优化器 4) 训练网络 5) 在测试集上测试网络 6) 在GPU上训练 5 数据并行处理(多GPU) 5.1 导入和参数 5.2 虚拟数据集 5.3 简单模型 5.4 创建一个模型和数据并行
m.blog.csdn.net2025年1月11日 · CSDN问答为您找到pytorch安装不了的问题相关问题答案,如果想了解更多关于pytorch安装不了的问题 python、pytorch、深度学习 技术问题等相关问答,请访问CSDN问答。
ask.csdn.net60 分钟 PyTorch 极速入门:从 Tensor 到 CIFAR-10 分类(超详细) 作者:南方的狮子先生 日期:2025-10 关键词:PyTorch、深度学习、CNN、CIFAR-10、Autograd、CUDA、初学者 1. 写在最前:为什么选 PyTorch?
m.blog.csdn.net🧠 欢迎来到 《PyTorch 入门到实战》 专栏!本专栏旨在帮助你从零开始,系统掌握 PyTorch 深度学习框架,从基础概念到项目实战,逐步构建完整的深度学习知识体系。无论你是刚入门的学生,还是想要提 …
www.zhihu.com