人工智能
未读
pytorch(15)网络模型的保存与加载
网络指神经网络! 在PyTorch中,保存和加载训练好的神经网络模型是一项重要的功能,特别是在大型模型和长时间训练的情况下。主要有两种方法来保存和加载模型: 1. 保存整个模型 方法: torch.save(model, filepath)。 特点: 保存模型的完整定义,包括其结构、权重和偏置。 优
人工智能
未读
pytorch(14)优化器
PyTorch的optim库提供了多种优化算法,这些算法在神经网络训练中用于更新网络的权重和偏置,以最小化损失函数。不同的优化器有不同的优化策略和应用场景。以下是一些PyTorch中常见的优化器: 优化算法 描述 特点 PyTorch 实现 随机梯度下降(SGD) 最经典的优化算法,每次更新仅使用一
人工智能
未读
pytorch(13)损失函数和反向传播
损失函数 每一个样本经过模型后会得到一个预测值,然后得到的预测值和真实值的差值就成为损失(当然损失值越小证明模型越是成功),我们知道有许多不同种类的损失函数,这些函数本质上就是计算预测值和真实值的差距的一类型函数,然后经过库(如pytorch,tensorflow等)的封装形成了有具体名字的函数。
人工智能
未读
Pytorch(12)Sequential层的使用
Container下Sequential层的介绍 在PyTorch中,Sequential 层是一个容器,它按照它们被添加的顺序串联多个模块(如线性层、激活层等)。这使得创建顺序模型变得简单直观。 实现 在PyTorch中,可以通过 torch.nn.Sequential 类来创建一个 Sequen
人工智能
未读
Pytorch(11)线性层
工作原理 线性层主要执行线性变换,数学上表示为 y=xWT+by=xWT+b,其中: $x$ 是输入。 $W$ 是层的权重。 $b$ 是偏置项。 $y$ 是输出。 这个变换是通过将输入数据乘以一组权重并加上一个偏置值来实现的。 实现 在PyTorch中,线性层可以通过 torch.nn.Linear
人工智能
未读
Pytorch(10)非线性激活函数
非线性激活层在神经网络中起着至关重要的作用。它们的主要职能是引入非线性性质,使得网络能够学习和模拟复杂的、非线性的函数。简而言之,非线性激活层是神经网络能够执行复杂任务(如图像识别、语言处理等)的核心原因。 非线性激活函数的类型 ReLU(Rectified Linear Unit): 特点: 当输
人工智能
未读
Pytorch(9)池化
池化操作 池化操作(Pooling)是卷积神经网络(CNN)中的一个重要组成部分,主要用于降低数据的空间大小,同时保持重要的信息。池化层通常跟在卷积层后面,它们共同工作以提取并压缩特征。 基本概念 池化操作通过对输入数据的子区域进行下采样,减少了后续层的参数数量和计算量。它的核心目的是提取主要特征,
人工智能
未读
Pytorch(8)卷积
一、卷积操作 卷积操作是深度学习中的核心概念,尤其在处理图像和时间序列数据时。在PyTorch的torch.nn模块中,卷积操作是通过各种卷积层实现的。 在神经网络,特别是CNN中,卷积操作用于处理数据(如图像)。这里的卷积核(或滤波器)是一个小窗口,它在输入数据上滑动(或卷积),计算窗口覆盖区域的
人工智能
未读
Pytorch(8)卷积
一、卷积操作 卷积操作是深度学习中的核心概念,尤其在处理图像和时间序列数据时。在PyTorch的torch.nn模块中,卷积操作是通过各种卷积层实现的。 在神经网络,特别是CNN中,卷积操作用于处理数据(如图像)。这里的卷积核(或滤波器)是一个小窗口,它在输入数据上滑动(或卷积),计算窗口覆盖区域的
人工智能
未读
Pytorch(7)神经网络基本骨架
神经网络基本骨架 torch.nn.Module 一、 torch.nn模块介绍 torch.nn是PyTorch框架中的一个核心模块,专门用于构建神经网络。在深入了解torch.nn之前,重要的是要明白PyTorch的设计哲学:它是一个灵活的框架,允许用户以直观的方式构建复杂的模型,同时提供强大的