首頁/ 健康/ 正文

利用k折驗證法,讓資料在最大程度利用資料,解決了這些科研難題!

在前面,我們聊到了logistic迴歸和cox迴歸,詳見:

預測模型篇1:logistic迴歸;

預測建模篇2:關於COX列線圖的繪製。

模型驗證談到了是3:7比例劃分,但是,有時候樣本量不足,做出來的模型不盡完美,且病例數利用度不高,略顯不足。今天,我們用R語言來看看K折驗證法,能夠最大程度的利用資料,幫我們解決科研難題!

K折交叉驗證(K-Fold Cross Validation)

把資料集分成K份,每個子集互不相交且大小相同,依次從K份中選出1份作為驗證集,其餘K-1份作為訓練集,這樣進行K次單獨的模型訓練和驗證,最後將K次驗證結果取平均值,作為此模型的驗證誤差。當K=m時,就變為留一法。可見留一法是K折交叉驗證的特例。

留一法(Leave One Out Cross Validation,LOOCV)

假設資料集一共有m個樣本,依次從資料集中選出1個樣本作為驗證集,其餘m-1個樣本作為訓練集,這樣進行m次單獨的模型訓練和驗證,最後將m次驗證結果取平均值,作為此模型的驗證誤差。

利用k折驗證法,讓資料在最大程度利用資料,解決了這些科研難題!

利用k折驗證法,讓資料在最大程度利用資料,解決了這些科研難題!

利用k折驗證法,讓資料在最大程度利用資料,解決了這些科研難題!

利用k折驗證法,讓資料在最大程度利用資料,解決了這些科研難題!

之後我們對traini資料集進行各種統計就好啦,本期分享此結束~

— THE END —

相關文章

頂部