r语言数据分析论文
r语言数据分析论文
是的,明年一月股票价格属于逻辑回归问题。逻辑回归这个模型很神奇,虽然它的本质也是回归,但是它是一个分类模型,并且它的名字当中又包含”回归“两个字,未免让人觉得莫名其妙。
如果是初学者,觉得头晕是正常的,没关系,让我们一点点捋清楚。
让我们先回到线性回归,我们都知道,线性回归当中 y = WX + b。我们通过W和b可以求出X对应的y,这里的y是一个连续值,是回归模型对吧。但如果我们希望这个模型来做分类呢,应该怎么办?很容易想到,我们可以人为地设置阈值对吧,比如我们规定y > 0最后的分类是1,y < 0最后的分类是0。从表面上来看,这当然是可以的,但实际上这样操作会有很多问题。
最大的问题在于如果我们简单地设计一个阈值来做判断,那么会导致最后的y是一个分段函数,而分段函数不连续,使得我们没有办法对它求梯度,为了解决这个问题,我们得找到一个平滑的函数使得既可以用来做分类,又可以解决梯度的问题。
很快,信息学家们找到了这样一个函数,它就是Sigmoid函数,它的表达式是:
357572dfd95e096f6b1db8d0418b7666.png
它的函数图像如下:
3c9f8ea71dade02bee91d6837a9ab772.png
可以看到,sigmoid函数在x=0处取值0.5,在正无穷处极限是1,在负无穷处极限是0,并且函数连续,处处可导。sigmoid的函数值的取值范围是0-1,非常适合用来反映一个事物发生的概率。我们认为
σ(x) 表示x发生的概率,那么x不发生的概率就是 1 - σ(x) 。我们把发生和不发生看成是两个类别,那么sigmoid函数就转化成了分类函数,如果 σ(x) > 0.5 表示类别1,否则表示类别0.
到这里就很简单了,通过线性回归我们可以得到
00f6409abfa62fff48ef6345454c1307.png
也就是说我们在线性回归模型的外面套了一层sigmoid函数,我们通过计算出不同的y,从而获得不同的概率,最后得到不同的分类结果。
损失函数
下面的推导全程高能,我相信你们看完会三连的(点赞、转发、关注)。
让我们开始吧,我们先来确定一下符号,为了区分,我们把训练样本当中的真实分类命名为y,y的矩阵写成 Y 。同样,单条样本写成 x , x 的矩阵写成 X。单条预测的结果写成 y_hat,所有的预测结果写成Y_hat。
对于单条样本来说,y有两个取值,可能是1,也可能是0,1和0代表两个不同的分类。我们希望 y = 1 的时候,y_hat 尽量大, y = 0 时, 1 - y_hat 尽量大,也就是 y_hat 尽量小,因为它取值在0-1之间。我们用一个式子来统一这两种情况:
4e1d139e638f22b1f7c3c34ec7ac1750.png
我们代入一下,y = 0 时前项为1,表达式就只剩下后项,同理,y = 1 时,后项为1,只剩下前项。所以这个式子就可以表示预测准确的概率,我们希望这个概率尽量大。显然,P(y|x) > 0,所以我们可以对它求对数,因为log函数是单调的。所以 P(y|x) 取最值时的取值,就是 log P(y|x) 取最值的取值。
b493206f3f6ac1d18987cc2136d43e74.png
我们期望这个值最大,也就是期望它的相反数最小,我们令
bd1691f5ed6d3b14ad6678ea7ab4a73e.png
这样就得到了它的损失函数:
18ae4824989eb45abea1a568bb8afc0b.png
如果知道交叉熵这个概念的同学,会发现这个损失函数的表达式其实就是交叉熵。交叉熵是用来衡量两个概率分布之间的”距离“,交叉熵越小说明两个概率分布越接近,所以经常被用来当做分类模型的损失函数。关于交叉熵的概念我们这里不多赘述,会在之后文章当中详细介绍。我们随手推导的损失函数刚好就是交叉熵,这并不是巧合,其实底层是有一套信息论的数学逻辑支撑的,我们不多做延伸,感兴趣的同学可以了解一下。
硬核推导
损失函数有了,接下来就是求梯度来实现梯度下降了。
这个函数看起来非常复杂,要对它直接求偏导算梯度过于硬核(危),如果是许久不碰高数的同学直接肝不亚于硬抗苇名一心。
ade04cadcb25c9674f76ec1fa217eb85.png
为了简化难度,我们先来做一些准备工作。首先,我们先来看下σ 函数,它本身的形式很复杂,我们先把它的导数搞定。
77509348117bf958bd84c57fbbe2c048.png
因为 y_hat = σ(θX) ,我们将它带入损失函数,可以得到,其中σ(θX)简写成σ(θ) :
7cc17ea96bd209a6a71e30a89827553e.png
接着我们求 J(θ) 对 θ 的偏导,这里要代入上面对 σ(x) 求导的结论:
363b945b9b4cc57919d3d503c45c0ff6.png
代码实战
梯度的公式都推出来了,离写代码实现还远吗?
不过巧妇难为无米之炊,在我们撸模型之前,我们先试着造一批数据。
我们选择生活中一个很简单的场景——考试。假设每个学生需要参加两门考试,两门考试的成绩相加得到最终成绩,我们有一批学生是否合格的数据。希望设计一个逻辑回归模型,帮助我们直接计算学生是否合格。
为了防止sigmoid函数产生偏差,我们把每门课的成绩缩放到(0, 1)的区间内。两门课成绩相加超过140分就认为总体及格。
2d25f5bfaa9ec45a3089c4f12c201ccf.png
这样得到的训练数据有两个特征,分别是学生两门课的成绩,还有一个偏移量1,用来记录常数的偏移量。
接着,根据上文当中的公式,我们不难(真的不难)实现sigmoid以及梯度下降的函数。
2bf9363d9bb6a71a0e0e33a1234d5c7b.png
这段函数实现的是批量梯度下降,对Numpy熟悉的同学可以看得出来,这就是在直接套公式。
最后,我们把数据集以及逻辑回归的分割线绘制出来。
097c155cf08a23efc7d2e3d69b4704e2.png
最后得到的结果如下:
9db92f8f8681c247a6cba139152c5ca2.png
随机梯度下降版本
可以发现,经过了1万次的迭代,我们得到的模型已经可以正确识别所有的样本了。
我们刚刚实现的是全量梯度下降算法,我们还可以利用随机梯度下降来进行优化。优化也非常简单,我们计算梯度的时候不再是针对全量的数据,而是从数据集中选择一条进行梯度计算。
基本上可以复用梯度下降的代码,只需要对样本选取的部分加入优化。
cfd38e0b28894b1016968075e6a1bc3b.png
我们设置迭代次数为2000,最后得到的分隔图像结果如下:
6a1a9d6962bf1b801f0a8801883dec05.png
当然上面的代码并不完美,只是一个简单的demo,还有很多改进和优化的空间。只是作为一个例子,让大家直观感受一下:其实自己亲手写模型并不难,公式的推导也很有意思。这也是为什么我会设置高数专题的原因。CS的很多知识也是想通的,在学习的过程当中灵感迸发旁征博引真的是非常有乐趣的事情,希望大家也都能找到自己的乐趣。
今天的文章就是这些,如果觉得有所收获,请顺手点个关注或者转发吧,你们的举手之劳对我来说很重要。
相关资源:【原创】R语言对二分连续变量进行逻辑回归数据分析报告论文(代码...
文章知识点与官方知识档案匹配
算法技能树首页概览
33030 人正在系统学习中
打开CSDN,阅读体验更佳
VGG论文笔记及代码_麻花地的博客_vgg论文
VGG论文笔记及代码 VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION 牛津大学视觉组(VGG)官方网站: Abstract 在这项工作中,我们研究了在大规模图像识别环境中卷积网络深度对其...
...MNIST研究》论文和Python代码_通信与逆向那些事的博客_机器...
1、逻辑回归算法 逻辑回归(Logistic Regression),与它的名字恰恰相反,它是一个分类器而非回归方法,在一些文献里它也被称为logit回归、最大熵分类器(MaxEnt)、对数线性分类器等。 使用_model中的LogisticRegression方法来训练...
两个重要极限的推导
两个重要极限 (1) limθ→0sinθθ=1 (θ为弧度) \underset{\theta \rightarrow 0}{\lim}\frac{\sin \theta}{\theta}=1\ \ \text{(}\theta \text{为弧度)} θ→0limθsinθ=1 (θ为弧度) (2) limx→∞(1+1x)x=e \underset{x\rightarrow \infty}{\lim}\left( 1+\frac{1}{x} \ri
继续访问
两个重要极限及其推导过程
一、 证明:由上图可知, 即 二、 证明:首先证明此极限存在 构造数列 而对于n+1 ...
继续访问
...是多项式回归】Jeff Dean等论文发现逻辑回归和深度学习一样好_qq...
其中,基线 aEWS(augmented Early Warning Score)是一个有 28 个因子的逻辑回归模型,在论文作者对预测患者死亡率的传统方法 EWS 进行的扩展。而 Full feature simple baseline 则是 Uri Shalit 说的标准化逻辑回归。 注意到基线模型(红...
数学模型——Logistic回归模型(含Matlab代码)_苏三有春的博客...
Logistic回归模型是一种非常常见的统计回归模型,在处理大量数据,揭示各自变量如何作用于因变量(描述X与Y之间的关系)时有着十分重要的作用。笔者在写Logit回归模型前参加了一次市场调研比赛,在这次比赛中学到了很多东西,同时发现,许多优秀获...
《神经网络设计》第二章中传递函数
import math #硬极限函数 def hardlim(data): if data < 0: a = 0 else: a = 1 print("fun:hardlim,result:%f"%a) #对称硬极限函数 def hardlims(data): if data < 0: a = -1 e
继续访问
两个重要极限定理推导
两个重要极限定理: limx→0sinxx=1(1) \lim_{x \rightarrow 0} \frac{\sin x}{x} = 1 \tag{1} x→0limxsinx=1(1) 和 limx→∞(1+1x)x=e(2) \lim_{x \rightarrow \infty} (1 + \frac{1}{x})^x = e \tag{2} x→∞lim(1+x1)x=e(2) 引理(夹逼定理) 定义一: 如果数列 {Xn}\lbrace X_n \rbrace{Xn},{Yn}
继续访问
【原创】R语言对二分连续变量进行逻辑回归数据分析报告论文(代码...
【原创】R语言对二分连续变量进行逻辑回归数据分析报告论文(代码数据).docx资源推荐 资源评论 鲸鱼算法(WOA)优化变分模态分解(VMD)参数python 5星 · 资源好评率100% 程序 2.有数据集,可直接运行 matlab批量读取excel表格数据...
机器学习--逻辑回归_科技论文精讲的博客
机器学习-逻辑回归分析(Python) 02-24 回归和分类方法是机器学习中经常用到的方法区分回归问题和分类问题:回归问题:输入变量和输出变量均为连续变量的问题;分类问题:输出变量为有限个离散变量的问题。因此分类及回归分别为研究这两类问题...
常见函数极限
limx→0sinx=1\lim_{x\to 0}\frac{\sin}{x}=1x→0limxsin=1 limx→∞(1+1x)x=e\lim_{x\to \infty}(1+\frac{1}{x})^x=ex→∞lim(1+x1)x=e limα→0(1+α)1α=e\lim_{\alpha\to 0}(1+\alpha)^\frac{1}{\alpha}=eα→0lim(...
继续访问
逻辑回归原理及代码实现
公式自变量取值为任意实数,值域[0,1]解释将任意的输入映射到了[0,1]区间,我们在线性回归中可以得到一个预测值,再将该值映射到Sigmoid函数中这样就完成了由值到概率的转换,也就是分类任务预测函数其中,分类任务整合解释对于二分类任务(0,1),整合后y取0只保留,y取1只保留似然函数对数似然此时应用梯度上升求最大值,引入转换为梯度下降任务求导过程参数更新多分类的softmax。............
继续访问
python手写数字识别论文_Python利用逻辑回归模型解决MNIST手写数字识别问...
本文实例讲述了Python利用逻辑回归模型解决MNIST手写数字识别问题。分享给大家供大家参考,具体如下: 1、MNIST手写识别问题 MNIST手写数字识别问题:输入黑白的手写阿拉伯数字,通过机器学习判断输入的是几。可以通过TensorFLow下载MNIST手写数据集,...
逻辑回归问题整理_暮雨林钟的博客
逻辑回归问题整理 之前只是简单的接触过逻辑回归,今天针对于最近看论文的疑惑做一个整理; 逻辑回归与极大似然的关系: 逻辑回归的提出主要是在线性问题下为分类问题而提出的; 简单来说,针对于一个二分类问题,我们需要将线性函数映射为一...
机器学习算法-逻辑回归(一):基于逻辑回归的分类预测(代码附详细注释)
1 逻辑回归的介绍和应用 1.1 逻辑回归的介绍 逻辑回归(Logistic regression,简称LR)虽然其中带有"回归"两个字,但逻辑回归其实是一个分类模型,并且广泛应用于各个领域之中。虽然现在深度学习相对于这些传统方法更为火热,但实则这些传统方法由于其独特的优势依然广泛应用于各个领域中。 而对于逻辑回归而且,最为突出的两点就是其模型简单和模型的可解释性强。 逻辑回归模型的优劣势: 优点:实现简单,易于理解和实现;计算代价不高,速度很快,存储资源低; 缺点:容易欠拟合,分类精度可能不高 1.2
继续访问
逻辑回归:原理+代码
(作者:陈玓玏) 逻辑回归算是传统机器学习中最简单的模型了,它的基础是线性回归,为了弄明白逻辑回归,我们先来看线性回归。 一、线性回归 假设共N个样本,每个样本有M个特征,这样就产生了一个N*M大小的样本矩阵。令矩阵为X,第i个样本为Xi,第i个样本的第j个特征为Xij。令样本的观测向量为Y,第i个样本的观测值为Yi,那么就会有以下公式: (X+[1]N*1)*W = Y 也就是说,...
继续访问
浅谈逻辑回归_jzhx107的博客
LMSE回归的回归平面受左上角两个绿色样本的影响而向上倾斜。 支持向量机的分离平面只由两个支持向量决定。 另外我们看到,在本例中逻辑回归和支持向量机得到的分离平面很接近,但是支持向量机的推导和训练过程要比逻辑回归复杂很多。所以加州...
论文研究-基于HBase的多分类逻辑回归算法研究.pdf_多分类逻辑回归...
论文研究-基于HBase的多分类逻辑回归算法研究.pdf,为解决在大数据环境下,用于训练多分类逻辑回归模型的数据集可能会超过执行计算的客户端内存的问题,提出了块批量梯度下降算法,用于计算回归模型的系数。将训练数据集存入HBase后,通过设置表...
【机器学习】 逻辑回归原理及代码
大家好,我是机器侠~1 Linear Regression(线性回归)在了解逻辑回归之前,我们先简单介绍一下Linear Regression(线性回归)。线性回归是利用连续性的变量来预估实际数值(比如房价),通过找出自变量与因变量之间的线性关系,确定一条最佳直线,称之为回归线。并且,我们将这个回归关系表示为2 Logistic Regression(...
继续访问
最新发布 【大道至简】机器学习算法之逻辑回归(Logistic Regression)详解(附代码)---非常通俗易懂!
逻辑回归详细推导,附github代码
继续访问
第二重要极限公式推导过程_机器学习——一文详解逻辑回归「附详细推导和代码」...
在之前的文章当中,我们推导了线性回归的公式,线性回归本质是线性函数,模型的原理不难,核心是求解模型参数的过程。通过对线性回归的推导和学习,我们基本上了解了机器学习模型学习的过程,这是机器学习的精髓,要比单个模型的原理重要得多。新关注和有所遗忘的同学可以点击下方的链接回顾一下之前的线性回归和梯度下降的内容。讲透机器学习中的梯度下降机器学习基础——线性回归公式推导(附代码和演示图)回归与分类在机器学习...
继续访问
机器学习之逻辑回归,代码实现(附带sklearn代码,小白版)
用小白的角度解释逻辑回归,并且附带代码实现
继续访问
热门推荐 两个重要极限及相关推导极限
两个重要极限: ①limx→0sinxx=1\lim_{x \to 0}\frac{\sin x}{x} = 1 ②limx→∞(1+1x)x=e\lim_{x \to \infty}(1 + \frac{1}{x})^x = e 关于重要极限①的推导极限可以参考: 无穷小的等价代换 由重要极限②可以推导出: limx→∞(1+1x)x⇒limx→0(1+x)1x=e\lim_{x \t
继续访问
(一)机器学习——逻辑回归(附完整代码和数据集)
什么是逻辑回归? 首先逻辑回归是一种分类算法。逻辑回归算法和预测类算法中的线性回归算法有一定的类似性。简单来讲,逻辑回归,就是通过回归的方法来进行分类,而不是进行预测,比如预测房价等。 逻辑回归解决的问题 先看下面的图,已知平面上分布的红点和蓝点,逻辑回归算法就是解决怎么根据一系列点,计算出一条直线(或者是平面)将平面上的点分成两类,一般的解决方法就是建立一个数学模型,然后通过迭代优化得到一个最优...
继续访问
机器学习:逻辑回归及其代码实现
一、逻辑回归(logistic regression)介绍 逻辑回归,又称为对数几率回归,虽然它名字里面有回归二字,但是它并不像线性回归一样用来预测数值型数据,相反,它一般用来解决分类任务,特别是二分类任务。 本质上,它是一个percetron再加上一个sigmoid激活函数,如下所示: 然后逻辑回归采用的损失函数是交叉熵: ...
继续访问
逻辑回归,原理及代码实现
Ⅰ.逻辑回归概述: 逻辑回归(LR,Logistic Regression)是传统机器学习中的一种分类模型,它属于一种在线学习算法,可以利用新的数据对各个特征的权重进行更新,而不需要重新利用历史数据训练。因此在实际开发中,一般针对该类任务首先都会构建一个基于LR的模型作为Baseline Model,实现快速上线,然后在此基础上结合后续业务与数据的演进,不断的优化改进。 由于LR算法具有简单、高效、易于并行且在线学习(动态扩展)的特点,在工业界具有非常广泛的应用。例如:评论信息正负情感分析(二分类)、用户点
继续访问
逻辑(logistic)回归算法原理及两种代码实现
①简单介绍了逻辑回归的原理 ②介绍了两种代码实现方法
继续访问
由两个重要极限推导常见等价无穷小以及常见导数公式
两个重要极限 第一个重要极限 limx→0xsinx=1 \lim_{x\rightarrow0}\frac{x}{sinx}=1x→0limsinxx=1 第二个重要极限 limx→+∞(1+1x)x=e \lim_{x\rightarrow+\infty}(1+\frac{1}{x})^x=ex→+∞lim(1+x1)x=e 等价无穷小 1. ln(1+x)~x limx→0ln(1+x)x=limx→0ln(1+x)1x=ln(limx→+∞(1+1x)x)=lne=1 \lim_{
继续访问
机器学习——逻辑回归算法代码实现
机器学习——逻辑回归算法代码实现前言一、逻辑回归是什么?二、代码实现1.数据说明2.逻辑回归代码 前言 最近准备开始学习机器学习,后续将对学习内容进行记录,该文主要针对逻辑回归代码实现进行记录!同时也准备建一个群,大家可以进行交流,微信:ffengjixuchui 一、逻辑回归是什么? 逻辑回归概念篇可看博主之前的文章,传送门 二、代码实现 1.数据说明 你想根据两次考试的结果来决定每个申请人的录取机会。你有以前的申请人的历史数据,你可以用它作为逻辑回归的训练集。
R语言基本数据分析
R语言基本数据分析
本文基于R语言进行基本数据统计分析,包括基本作图,线性拟合,逻辑回归,bootstrap采样和Anova方差分析的实现及应用。
不多说,直接上代码,代码中有注释。
1. 基本作图(盒图,qq图)
#basic plot
boxplot(x)
qqplot(x,y)
2. 线性拟合
#linear regression
n = 10
x1 = rnorm(n)#variable 1
x2 = rnorm(n)#variable 2
y = rnorm(n)*3
mod = lm(y~x1+x2)
(mod) #erect the matrix of mod
plot(mod) #plot residual and fitted of the solution, Q-Q plot and cook distance
summary(mod) #get the statistic information of the model
hatvalues(mod) #very important, for abnormal sample detection
3. 逻辑回归
#logistic regression
x <- c(0, 1, 2, 3, 4, 5)
y <- c(0, 9, 21, 47, 60, 63) # the number of successes
n <- 70 #the number of trails
z <- n - y #the number of failures
b <- cbind(y, z) # column bind
fitx <- glm(b~x,family = binomial) # a particular type of generalized linear model
print(fitx)
plot(x,y,xlim=c(0,5),ylim=c(0,65)) #plot the points (x,y)
beta0 <- fitx$coef[1]
beta1 <- fitx$coef[2]
fn <- function(x) n*exp(beta0+beta1*x)/(1+exp(beta0+beta1*x))
par(new=T)
curve(fn,0,5,ylim=c(0,60)) # plot the logistic regression curve
3. Bootstrap采样
# bootstrap
# Application: 随机采样,获取最大eigenvalue占所有eigenvalue和之比,并画图显示distribution
dat = matrix(rnorm(100*5),100,5)
s = 200 #sample 200 times
# theta = matrix(rep(0,s*5),s,5)
theta =rep(0,s*5);
for (i in 1:s)
{
j = sample(1:100,100,replace = TRUE)#get 100 samples each time
datrnd = dat[j,]; #select one row each time
lambda = princomp(datrnd)$sdev^2; #get eigenvalues
# theta[i,] = lambda;
theta[i] = lambda[1]/sum(lambda); #plot the ratio of the biggest eigenvalue
}
# hist(theta[1,]) #plot the histogram of the first(biggest) eigenvalue
hist(theta); #plot the percentage distribution of the biggest eigenvalue
sd(theta)#standard deviation of theta
#上面注释掉的语句,可以全部去掉注释并将其下一条语句注释掉,完成画最大eigenvalue分布的功能
4. ANOVA方差分析
#Application:判断一个自变量是否有影响 (假设我们喂3种维他命给3头猪,想看喂维他命有没有用)
#
y = rnorm(9); #weight gain by pig(Yij, i is the treatment, j is the pig_id), 一般由用户自行输入
#y = matrix(c(1,10,1,2,10,2,1,9,1),9,1)
Treatment <- factor(c(1,2,3,1,2,3,1,2,3)) #each {1,2,3} is a group
mod = lm(y~Treatment) #linear regression
print(anova(mod))
#解释:Df(degree of freedom)
#Sum Sq: deviance (within groups, and residuals) 总偏差和
# Mean Sq: variance (within groups, and residuals) 平均方差和
# compare the contribution given by Treatment and Residual
#F value: Mean Sq(Treatment)/Mean Sq(Residuals)
#Pr(>F): p-value. 根据p-value决定是否接受Hypothesis H0:多个样本总体均数相等(检验水准为0.05)
qqnorm(mod$residual) #plot the residual approximated by mod
#如果qqnorm of residual像一条直线,说明residual符合正态分布,也就是说Treatment带来的contribution很小,也就是说Treatment无法带来收益(多喂维他命少喂维他命没区别)
如下面两图分别是
(左)用 y = matrix(c(1,10,1,2,10,2,1,9,1),9,1)和
(右)y = rnorm(9);
的结果。可见如果给定猪吃维他命2后体重特别突出的数据结果后,qq图种residual不在是一条直线,换句话说residual不再符合正态分布,i.e., 维他命对猪的体重有影响。
基于R语言实现Lasso回归分析
基于R语言实现Lasso回归分析
主要步骤:
将数据存成csv格式,逗号分隔
在R中,读取数据,然后将数据转成矩阵形式
加载lars包,先安装
调用lars函数
确定Cp值最小的步数
确定筛选出的变量,并计算回归系数
具体代码如下:
需要注意的地方:
1、数据读取的方法,这里用的( ),这样做的好处是,会弹出窗口让你选择你要加载进来的文件,免去了输入路径的苦恼。
2、数据要转为矩阵形式
3、(la) 可以看到R方,这里为0.66,略低
4、图如何看? summary的结果里,第1步是Cp最小的,在图里,看到第1步与横轴0.0的交界处,只有变量1是非0的。所以筛选出的是nongyangungun
Ps: R语言只学习了数据输入,及一些简单的处理,图形可视化部分尚未学习,等论文写完了,再把这部分认真学习一下~~在这里立个flag
R语言中没有维度的数据怎么转换成有维度?
今天被粉丝发的文章给难住了,又偷偷去学习了一下竞争风险模型,想起之前写的关于竞争风险模型的做法,真的都是皮毛哟,大家见笑了。想着就顺便把所有的生存分析的知识和R语言的做法和论文报告方法都给大家梳理一遍。
什么时候用生存分析
当你关心结局和结局发生时间的时候,就要考虑生存分析了,这种既有结局又有时间的数据叫做生存数据,英文叫做Time-to-event data. 只不过因为这个方法医学上用来分析存活情况用的多,所以得名生存分析,反正你就记住一个例子,我要研究汽车发生故障,我也应该用生存分析,因为我既关心是不是有故障,我还关心用了多久(跑了多远)才出故障,就是既有time,又有event,Time-to-event data就用生存分析。
基本概念
首先是删失,对象失访了,脱落了,出现结局之前随访结束了,都叫做删失:
删失又分为左删失,区间删失和右删失,图示如下:
比如我想研究得了A病的人的生存情况,存在的所有可能情形为:
第一种,研究的开始的时候有人已经有A病,这个时候人家已经活了一段时间了,具体多久我不知道,叫做左删失;
第二种,入组随访的时候没病,中途得了A病死了,什么时候得的,没记录下来,叫区间删失;
第三种,得了A病,一直活到了研究结束还没死,叫做右删失。
你看,所有的删失情况造成的后果都是我们没法准确估计发生结局的时间,这也是其名字删失的由来,对于这类数据就需记录为删失数据。
生存分析的种类有哪些
具体的种类是为了回答具体的问题,我们做生存分析常常要回答的问题如下:
一个是描述生存情况,一个是比较,再一个就是探究影响因素。
比如我随访了很多病人,我就想知道随着时间变化这群人的生存概率是如何变化的(描述)?我就可以用简单粗暴的Kaplan-Meier method,又叫乘积极限法,基本思想就是此刻的生存概率等于上一时刻的生存概率乘以此刻的存活率。
比如我手上有如下数据:
time是随访时间,status是结局,我就可以写出如下代码拟合出总体人群的生存曲线:
fit1 <- survfit(Surv(time, status) ~ 1, data = mydata)summary(fit1)
并且得到每个时间点,病人生存概率的估计值和标准误:
如果我还恰好收集了病人的性别,我又想看看男病人和女病人生存情况是不是有不同(比较),我可以对生存曲线分组比较,代码如下:
fit2<- survfit(Surv(time, status) ~ sex, data = mydata)summary(fit2)
输出两组生存曲线比较的log-rank test的统计量:
survdiff(Surv(time, status) ~ sex, data = mydata)
并且我们还可以进行复杂分组的组间比较,大家可以翻看我之前的文章。
但是大家明白,KM法始终是在做单因素分析,而且都是做的分类变量的单因素分析,我们经常还会有的需求是考虑各种混杂的情况下去探讨影响生存时间的因素,这个时候我们就要用到The Cox regression model了。
模型形式如下:
上面的式子把h0移项到左边,等号两边同时取对数就成了一个线性模型,和广义线性模型的理解一样一样的,b就是我们的影响因素的系数,解释为lnHR的改变量,其为正就是危险因素,为负就是保护因素:
The quantities exp(bi) are called hazard ratios (HR). A value of bi greater than zero, or equivalently a hazard ratio greater than one, indicates that as the value of the ith covariate increases, the event hazard increases and thus the length of survival decreases.
再观测一下上面的式子,我们拟合了预测因素对风险比例(t时刻风险比上基础风险)的模型,这个时候暗含的假设就是就是对于每个人在任何时刻风险只有一个常数,就是在所有预测因素的作用下,各个时间的风险是不变的,这个就叫做Proportional Hazards Assumption, 比例风险假设。
做COX比例风险模型的时候都有必要验证这个假设是不是满足,具体方法如下:
我们需要先做一个cox模型,拟合cox模型需要用到coxph函数,代码如下:
<- coxph(Surv(time, status) ~ age + sex + , data = lung)
模型输出结果里面会有预测变量的β值(coef)和其标准误,有HR(exp(coef))值,还有预测变量的显著性检验结果:
我们将这个模型对象直接喂给,就可以得到风险比例假设的检验结果了:
<- ()
可以看到,我们的p值都大于0.05,即都满足ph假设。
我们还可以从图上看,看scaled Schoenfeld residuals是不是和时间独立,如果独立则满足ph假设:
ggcoxzph()
有竞争事件时
上面写了只有一个截距事件时生存分析的不同目的,描述,比较,和影响因素探讨,接着再来看存在竞争事件的时候该如何描述,比较,和探讨影响因素。
生存分析的另外情况就是竞争风险模型,就是time to event的event有多种,一种发生了另外一种就不可能发生了,这个就是竞争,比如好多文献中都会列举的经典例子:就是在造血干细胞移植人群中,我们关心其疾病复发风险,但是有些人因为移植死了(TRM),死了之后肯定也谈不上复发,如果你把因为移植死了的人都作为删失数据,肯定也是不对的,这个里面就会有两个竞争结局相关性造成的问题,此时我们应该用竞争风险模型来分析。
For example, disease relapse is an event of interest in studies of allogeneic hematopoietic stem cell transplantation (HSCT), as is mortality related to complications of transplantation (transplant-related mortality or TRM). Relapse and TRM are not independent in this setting because these two events are likely related to immunologic effector mechanisms following HSCT, whereby efforts to reduce TRM may adversely affect the risk of relapse; moreover, patients who die from TRM cannot be at further risk of relapse.
在比例风险中我们的结局事件只有一个,我们关心的是哪些因素对事件发生的风险有影响。在竞争风险模型中我们关注的地方又变了,因为我们有好几个结局事件,这个时候我们会关心在竞争事件存在的情况下各个结局事件的累计发病函数是如何随着时间变化的,以及如何来比较不同的累计发病函数,以及如何探讨影响因素(competing risks regression analysis)。
之前写的在非竞争风险模型中累计发病率的组间比较可以用KM法,将纵坐标换一换,用log-rank检验,在竞争风险模型中我们需要用Fine and Gray提到的方法来做(Gray’s test),如果比如说我发现两组(治疗组和对照组)的累计发病风险不一样,我肯定还想探讨哪些因素影响累计发病风险,之前是用COX比例风险模型做的,在竞争结局存在的情况下我们依然是得用Fine and Gray提出的模型(Fine and Gray Model),叫做竞争风险回归模型:
Fine and Gray (6) proposed a method for direct regression modeling of the effect of covariates on the cumulative incidence function for competing risks data. As in any other regression analysis, modeling cumulative incidence functions for competing risks can be used to identify potential prognostic factors for a particular failure in the presence of competing risks, or to assess a prognostic factor of interest after adjusting for other potential risk factors in the model.
首先看竞争风险时候累计发病曲线的比较方法。我手上有数据如下:
其中dis是疾病类型,2分类,ftime是时间,status是结局事件,结局事件有3个水平,多的1个水平是竞争事件。现在我关心不同疾病人群各个事件累积发病曲线有无不同,我可以用cuminc函数结合plot画出各个组的累计发病曲线:
fit=cuminc (ftime, status, dis, cencode = 0) plot(fit)
fit对象的结果中还有每条曲线的比较,从比较结果可以看出两组在事件2的累积发病曲线上是有显著差异的:
上面介绍的方法相当于没有竞争风险的时候的KM法,通过上面的方法我们知道有了不同风险结局累计发病曲线的差异,继续我们会继续看影响因素,要做的就是竞争风险回归模型了,需要用到的函数就是crr。
比如我手上有如下数据,除了时间,结局还包括每个病人的像sex,age等等协变量,我想探讨说这些因素是如何影响病人某个结局的,我就可以写出一个竞争风险回归模型:
mod1 <- crr(ftime,Status,x)summary(mod1)
上面的代码中x是自变量矩阵,运行代码输出竞争风险回归模型的结果如下:
到这儿基本就写完了所有的生存分析的情况,接着再结合一篇论文看看报告方法,论文就是下面这篇,是我随意查的:
S. Chen, H. Sun, M. Heng, X. Tong, P. Geldsetzer, Z. Wang, P. Wu, J. Yang, Y. Hu, C.
Wang, T. Bärnighausen, Factors Predicting Progression to Severe COVID-19: A Competing Risk Survival Analysis of 1753 Patients in Community Isolation in Wuhan, China, Engineering (2021), doi:
这个作者用竞争风险模型探讨了重型新冠进程的影响因素,作者报告了每个影响因素的HR和置信区间,p值,这些都很容易做出来。还报告了固定时间点的累积发病的置信区间。在R语言中固定时间点的累计发病置信区间可以用CumIncidence这个函数计算出来:
The CumIncidence() function allows for the pointwise confidence intervals, by simply adding a further argument, level, where we specify the desired confidence level.
比如我想计算第10天各组的累计发病风险的置信区间,我就可以写出如下代码:
CumIncidence (ftime, status, dis, cencode = 0,t=10,level = 0.95)
输出结果如下:
图中就是各个组在时间为10的时候结局累计发病风险的置信区间。
小结
也欢迎大家的意见和建议,大家想了解什么统计方法都可以在文章下留言,说不定我看见了就会给你写教程哦,有疑问欢迎私信。
如果你是一个大学本科生或研究生,如果你正在因为你的统计作业、数据分析、模型构建,科研统计设计等发愁,如果你在使用SPSS, R,Python,Mplus, Excel中遇到任何问题,都可以联系我。因为我可以给您提供最好的,最详细和耐心的数据分析服务。
如果你对Z检验,t检验,方差分析,多元方差分析,回归,卡方检验,相关,多水平模型,结构方程模型,中介调节,量表信效度等等统计技巧有任何问题,请私信我,获取详细和耐心的指导。
If you are a student and you are worried about you statistical #Assignments, #Data #Analysis, #Thesis, #Reports, #Composing, #Quizzes, Exams.. And if you are facing problem in #SPSS, #R-Programming, #Excel, Mplus, then contact me. Because I could provide you the best services for your Data Analysis.
Are you confused with statistical Techniques like z-test, t-test, ANOVA, MANOVA, Regression, Logistic Regression, Chi-Square, Correlation, Association, SEM, multilevel model, mediation and moderation etc. for your Data Analysis...??
Then Contact Me. I will solve your Problem...
加油吧,打工人!
R数据分析:用R语言做潜类别分析LCA
R数据分析:ROC曲线与模型评价实例
R数据分析:用R语言做meta分析
R数据分析:贝叶斯定理的R语言模拟
R数据分析:什么是人群归因分数Population Attributable Fraction
R数据分析:有调节的中介
R数据分析:如何用R做多重插补,实例操练
R数据分析:如何用R做验证性因子分析及画图,实例操练
R数据分析:手把手教你画列线图(Nomogram)及解读结果
R数据分析:倾向性评分匹配完整实例(R实现)
R文本挖掘:文本聚类分析
R数据分析:混合效应模型实例
R文本挖掘:中文文本聚类
R文本挖掘:中文词云生成
R数据分析:临床预测模型的样本量探讨及R实现
R数据分析:多分类逻辑回归
R文本挖掘:社会网络分析
R数据分析:中介效应的做法
R数据分析:随机截距交叉滞后RI-CLPM与传统交叉滞后CLPM
R数据分析:多水平模型详细说明
R数据分析:如何做潜在剖面分析Mplus
R数据分析:生存分析的做法与解释续
R数据分析:竞争风险模型的做法和解释二
R数据分析:多元逻辑斯蒂回归的做法
R数据分析:线性回归的做法和优化实例
R数据分析:双分类变量的交互作用作图
R机器学习:基于树的分类算法的原理及实现
R数据分析:如何做聚类分析,实操解析
R数据分析:潜在剖面分析LPA的做法与解释
上一篇:首都体育学院学报论坛
下一篇:中学生英语期刊图片