博客
关于我
pytorch入门第五课——逻辑斯蒂回归
阅读量:687 次
发布时间:2019-03-17

本文共 1579 字,大约阅读时间需要 5 分钟。

前言

b站刘洪普老师的pytorch入门课笔记。记录学习。

本文内容为逻辑斯蒂回归示例。

目录

方法

逻辑斯蒂回归函数为:

在这里插入图片描述
虽然它的名字中带有回归,但事实上它并不是一种回归算法,而是一种分类算法。它的优点是,它是直接对分类的可能性进行建模的,无需事先假设数据分布,这样就避免了假设分布不准确所带来的问题,因为它是针对于分类的可能性进行建模的,所以它不仅能预测出类别,还可以得到属于该类别的概率。

关于激活函数

一个函数是否是激活函数需要看三点,而逻辑斯蒂曲线就是典型的激活函数。

1、范围[-1,1]

2、单调增
3、饱和函数

饱和函数即其导数符合这样的曲线

在这里插入图片描述

jupyter record

与线性回归不同的地方是,前馈过程需要经过一次逻辑斯蒂激活函数将数据归到[0,1]范围内,且这里使用的损失是BCELoss,即交叉熵损失。

import torchimport torch.nn.functional as F# 第一步,准备数据集x_data = torch.Tensor([[1.0],[2.0],[3.0]])y_data = torch.Tensor([[0],[0],[1]])# 第二步,使用类设计模型,继承自nn.Moduleclass LogisticRegressionModel(torch.nn.Module):    def __init__(self):        super(LogisticRegressionModel,self).__init__()        self.linear = torch.nn.Linear(1,1)        def forward(self,x):        y_pred = F.sigmoid(self.linear(x))        return y_predmodel = LogisticRegressionModel()# 第三步,构建损失和优化器criterion = torch.nn.BCELoss(size_average = False)optimizer = torch.optim.SGD(model.parameters(),lr = 0.01)# 第四步,训练阶段:前馈,反馈,更新for epoch in range(1000):    y_pred = model(x_data)    loss = criterion(y_pred,y_data)    print(epoch,loss.item())    optimizer.zero_grad()    loss.backward()    optimizer.step()

0 2.870121955871582

1 2.852933168411255
2 2.836561918258667
3 2.8209731578826904
4 2.8061323165893555
5 2.7920048236846924
6 2.778557300567627
7 2.765756130218506
8 2.7535696029663086
9 2.7419652938842773
991 1.173973560333252
992 1.1733458042144775
993 1.17271888256073
994 1.1720927953720093
995 1.1714673042297363
996 1.1708428859710693
997 1.1702193021774292
998 1.1695961952209473
999 1.1689739227294922

总结

以上就是逻辑斯蒂回归的示例了,其中的四个步骤可以作为一个框架来学习。

转载地址:http://hmzhz.baihongyu.com/

你可能感兴趣的文章
NLP 基于kashgari和BERT实现中文命名实体识别(NER)
查看>>
NLP 模型中的偏差和公平性检测
查看>>
Vue3.0 性能提升主要是通过哪几方面体现的?
查看>>
NLP 项目:维基百科文章爬虫和分类【01】 - 语料库阅读器
查看>>
NLP_什么是统计语言模型_条件概率的链式法则_n元统计语言模型_马尔科夫链_数据稀疏(出现了词库中没有的词)_统计语言模型的平滑策略---人工智能工作笔记0035
查看>>
NLP、CV 很难入门?IBM 数据科学家带你梳理
查看>>
NLP三大特征抽取器:CNN、RNN与Transformer全面解析
查看>>
NLP入门(六)pyltp的介绍与使用
查看>>
NLP学习笔记:使用 Python 进行NLTK
查看>>
NLP度量指标BELU真的完美么?
查看>>
NLP的不同研究领域和最新发展的概述
查看>>
NLP的神经网络训练的新模式
查看>>
NLP采用Bert进行简单文本情感分类
查看>>
NLP问答系统:使用 Deepset SQUAD 和 SQuAD v2 度量评估
查看>>
NLP项目:维基百科文章爬虫和分类【02】 - 语料库转换管道
查看>>
NLP:从头开始的文本矢量化方法
查看>>
NLP:使用 SciKit Learn 的文本矢量化方法
查看>>
NLTK - 停用词下载
查看>>
nmap 使用总结
查看>>
nmap 使用方法详细介绍
查看>>