邏輯迴歸- 維基百科,自由的百科全書
文章推薦指數: 80 %
二類評定模型(Binary Logit Model)編輯 ; categorical, percentage, Chi-square test, 邏輯迴歸 ; persontime, KM estimates (survival curves), Log-rank test, 比例風險 ...
邏輯迴歸
維基百科,自由的百科全書
跳至導覽
跳至搜尋
此條目需要精通或熟悉相關主題的編者參與及協助編輯。
(2016年9月17日)請邀請適合的人士改善本條目。
更多的細節與詳情請參見討論頁。
統計學系列條目迴歸分析
模型
線性迴歸
簡單迴歸(英語:Simplelinearregression)
普通最小平方法
多項式迴歸
一般線性模型
廣義線性模式
離散選擇(英語:Discretechoice)
對數機率迴歸
多項羅吉特(英語:Multinomiallogit)
混合羅吉特
波比(英語:Probitmodel)
多項式波比(英語:Multinomialprobit)
排序性模型(英語:Orderedlogit)
有序波比(英語:Orderedprobit)
卜瓦松迴歸
等級線性模型
固定效應(英語:Fixedeffectsmodel)
隨機效應(英語:Randomeffectsmodel)
混合模型(英語:Mixedmodel)
非線性迴歸
非母數(英語:Nonparametricregression)
半母數(英語:Semiparametricregression)
穩健(英語:Robustregression)
分位數迴歸
保序迴歸
主成分(英語:Principalcomponentregression)
最小角
局部(英語:Localregression)
分段(英語:Segmentedregression)
含誤差變數(英語:Errors-in-variablesmodels)
估計
最小平方法
普通最小平方法
線性
偏最小平方迴歸
母體(英語:Totalleastsquares)
廣義(英語:Generalizedleastsquares)
加權
非線性(英語:Non-linearleastsquares)
非負(英語:Non-negativeleastsquares)
重複再加權(英語:Iterativelyreweightedleastsquares)
脊迴歸(嶺迴歸)
LASSO
最小絕對值導數法(英語:Leastabsolutedeviations)
貝葉斯(英語:Bayesianlinearregression)
貝葉斯多元(英語:Bayesianmultivariatelinearregression)
背景
迴歸模型檢定(英語:Regressionmodelvalidation)
平均響應和預測響應(英語:Meanandpredictedresponse)
誤差和殘差
適合度(英語:Goodnessoffit)
學生化殘差(英語:Studentizedresidual)
高斯-馬可夫定理
機率與統計主題閱論編
機器學習與資料探勘
問題
分類
聚類
迴歸
異常檢測
數據清洗
自動機器學習
關聯規則
強化學習
結構預測(英語:Structuredprediction)
特徵工程
特徵學習
線上機器學習
無監督學習
半監督學習(英語:Semi-supervisedlearning)
排序學習(英語:Learningtorank)
語法歸納(英語:Grammarinduction)
監督式學習(分類 ·迴歸)
決策樹
集成(裝袋,提升,隨機森林)
k-NN
線性迴歸
樸素貝葉斯
神經網絡
邏輯迴歸
感知器
支持向量機(SVM)
相關向量機(RVM)
聚類
BIRCH
層次(英語:Hierarchicalclustering)
k-平均
期望最大化(EM)
DBSCAN
OPTICS
均值飄移(英語:Meanshift)
降維
因素分析
CCA
ICA
LDA
NMF(英語:Non-negativematrixfactorization)
PCA
LASSO
t-SNE(英語:t-distributedstochasticneighborembedding)
結構預測(英語:Structuredprediction)
機率圖模型(貝葉斯網絡,CRF,HMM)
異常檢測
k-NN
局部離群因子(英語:Localoutlierfactor)
神經網絡
自編碼
深度學習
多層感知機
RNN
受限玻爾茲曼機
SOM
CNN
強化學習
Q學習
SARSA
時序差分學習(英語:Temporaldifferencelearning)
深度強化學習
理論
偏差/變異數困境(英語:Bias–variancetradeoff)
計算學習理論(英語:Computationallearningtheory)
經驗風險最小化
PAC學習(英語:Probablyapproximatelycorrectlearning)
統計學習
VC理論
研討會
NeurIPS
ICML
ICLR
閱論編
邏輯斯迴歸(英語:Logisticregression,又譯作邏輯迴歸、對數機率迴歸、羅吉斯迴歸)是一種對數機率模型(英語:Logitmodel,又譯作邏輯模型、評定模型、分類評定模型),是離散選擇法模型之一,屬於多變量分析範疇,是社會學、生物統計學、臨床、數量心理學、計量經濟學、市場行銷等統計實證分析的常用方法。
目次
1邏輯斯諦分布公式
2IIA假設
2.1IIA假設示例
2.2滿足IIA假設的優點
2.3IIA假設的檢驗
2.3.1Hausman檢驗
2.3.2一般化模型的檢驗
2.4IIA問題的解決方法
2.4.1多項式Probit模型
2.4.2一般化極值模型
2.4.2.1巢式Logit模型
2.4.2.2對偶組合Logit模型
2.4.2.3一般化分簇Logit模型
2.4.3混合Logit模型
3二類評定模型(BinaryLogitModel)
4參考書目
5參見
6外部連結
邏輯斯分布公式[編輯]
邏輯斯分布函數圖像
P
(
Y
=
1
|
X
=
x
)
=
e
x
′
β
1
+
e
x
′
β
.
{\displaystyleP(Y=1|X=x)={\frac{e^{x'\beta}}{1+e^{x'\beta}}}.}
其中參數
β
{\displaystyle\beta}
常用最大概似估計。
IIA假設[編輯]
全名為Independentandirrelevantalternatives假設,也稱作IIA效應,指Logit模型中的各個可選項是獨立的。
IIA假設示例[編輯]
市場上有A,B,C三個商品相互競爭,分別占有市場份額:60%,30%和10%,三者比例為:6:3:1
一個新產品D引入市場,有能力占有20%的市場——
如果滿足IIA假設,各個產品獨立作用,互不關聯:新產品D占有20%的市場份額,剩下的80%在A、B、C之間按照6:3:1的比例瓜分,分別占有48%,24%和8%。
如果不滿足IIA假設,比如新產品D跟產品B相似度高,則新產品D的CP值高而奪去產品B的部分市場(總份額的20%),則產品B剩餘10%,而產品A和C的市場份額保持60%和10%不變。
滿足IIA假設的優點[編輯]
可以獲得每個個性化的選擇集合的一致的參數估計
各個類別的子集的一般化的估計
大大節省時間
可選項數目很多的時候尤其如此
IIA假設的檢定[編輯]
Hausman檢定[編輯]
傑里·A·奧斯曼和丹尼爾·麥克法登提出的。
一般化模型的檢定[編輯]
IIA問題的解決方法[編輯]
多項式Probit模型[編輯]
一般化極值模型[編輯]
可以將可選項間的相關性建模
巢式Logit模型[編輯]
巢式(Nested)表示可選項被分作不同的組,組與組之間不相關,組內的可選項相關,相關程度用1-λg來表示(1-λg越大,相關程度越高)
對偶組合Logit模型[編輯]
一般化分簇Logit模型[編輯]
混合Logit模型[編輯]
二類評定模型(BinaryLogitModel)[編輯]
僅有兩個可選項:V1n,V2n
變數類型
統計量
組別比較
迴歸模型
numerical
mean
t-test/ANOVA
線性迴歸
categorical
percentage
Chi-squaretest
邏輯迴歸
persontime
KMestimates(survivalcurves)
Log-ranktest
比例風險迴歸
參考書目[編輯]
Agresti,Alan:CategoricalDataAnalysis.NewYork:Wiley,1990.
Amemiya,T.,1985,AdvancedEconometrics,HarvardUniversityPress.
Hosmer,D.W.andS.Lemeshow:Appliedlogisticregression.NewYork;Chichester,Wiley,2000.
參見[編輯]
多重變數分析
外部連結[編輯]
UFLDL:Logistic迴歸(頁面存檔備份,存於網際網路檔案館)
南佛羅里達大學Logistic迴歸課程
線上計算Logistic迴歸(頁面存檔備份,存於網際網路檔案館)
閱論編統計學敘述統計學連續變數機率分布集中趨勢平均數(平方 ·算術 ·幾何 ·調和 ·算術-幾何 ·幾何-調和 ·希羅/平均數不等式)·中位數·眾數離散程度全距·變異係數·百分位數·四分位距·四分位數·標準差·變異數·平均差·標準分數·柴比雪夫不等式·吉尼係數分布形態(英語:Shapeofthedistribution)中央極限定理·動差(偏態·峰態)離散變數機率次數(英語:Countdata)·列聯表(英語:Contingencytable)推論統計學和假說檢定推論統計學信賴區間·區間估計(英語:Intervalestimation)·顯著性差異·元分析·貝氏推論實驗設計母體·抽樣·重抽樣(刀切法·自助法·交叉驗證)·重複(英語:Replication(statistics))·阻礙·靈敏度和特異度·區集(英語:Blocking(statistics))·缺失數據樣本量(英語:Samplesize)標準誤·虛無假說·對立假說·型一錯誤與型二錯誤·檢定力·效應值常規估計貝氏推論·區間估計(英語:Intervalestimation)·最大概似估計·最小距離估計(英語:Minimumdistanceestimation)·動差估計·最大間距假說檢定Z檢定·司徒頓t檢定·F檢定·卡方檢定·Wald檢定(英語:Waldtest)·曼-惠特尼檢定(英語:Mann–WhitneyUtest)·秩和檢定生存分析生存函數·乘積極限估計量·對數秩和檢定·失效率·危險比例模式相關及迴歸分析相關性干擾因素·皮爾森積動差相關係數·等級相關(英語:Rankcorrelation)(斯皮爾曼等級相關係數·肯德等級相關係數(英語:Kendalltaurankcorrelationcoefficient))·自由度·誤差和殘差線性迴歸線性模型(英語:Linearmodel)·一般線性模型·廣義線性模型·簡單線性迴歸(英語:Simplelinearregression)·普通最小平方法·貝葉斯迴歸(英語:Bayesianlinearregression)·變異數分析·共變異數分析(英語:Analysisofcovariance)非線性迴歸無母數迴歸模型(英語:Nonparametricregression)·半參數迴歸模型(英語:Semiparametricregression)·邏輯迴歸統計圖形圓餅圖·長條圖·雙標圖·箱形圖·管制圖·森林圖(英語:Forestplot)·直方圖·分位圖·趨勢圖·散布圖·莖葉圖(英語:Stem-and-leafdisplay)·雷達圖(英語:Radarchart)·示意地圖其他回應過程效度·統計誤用
分類
主題
共享資源
專題
取自「https://zh.wikipedia.org/w/index.php?title=邏輯迴歸&oldid=72595322」
分類:統計學市場行銷社會學心理學生物學回歸分析隱藏分類:自2016年9月需要專業人士關注的頁面含有英語的條目
導覽選單
個人工具
沒有登入討論貢獻建立帳號登入
命名空間
條目討論
臺灣正體
不转换简体繁體大陆简体香港繁體澳門繁體大马简体新加坡简体臺灣正體
查看
閱讀編輯檢視歷史
更多
搜尋
導航
首頁分類索引特色內容新聞動態近期變更隨機條目資助維基百科
說明
說明維基社群方針與指引互助客棧知識問答字詞轉換IRC即時聊天聯絡我們關於維基百科
工具
連結至此的頁面相關變更上傳檔案特殊頁面靜態連結頁面資訊引用此頁面維基數據項目
列印/匯出
下載為PDF可列印版
其他專案
維基共享資源
其他語言
العربيةCatalàČeštinaDeutschEnglishEspañolEestiEuskaraفارسیSuomiFrançaisעבריתBahasaIndonesiaItaliano日本語한국어NederlandsPolskiPortuguêsРусскийSimpleEnglishSvenskaУкраїнська粵語
編輯連結
延伸文章資訊
- 1羅吉斯迴歸分析(Logistic regression, logit model) - 永析統計
羅吉斯迴歸分析(Logistic regression, logit model)-統計說明與SPSS操作 · 1. 模式係數的Omnibus測試:相當於線性迴歸裡的ANOVA-F檢定,探討羅吉...
- 2What is Logistic regression? | IBM
This type of statistical model (also known as logit model) is often used for classification and p...
- 3Logit Model - an overview | ScienceDirect Topics
Logistic regression is a well-known procedure that can be used for classification. This is a vari...
- 4Logistic regression - Wikipedia
- 5Logit Regression | R Data Analysis Examples
Logistic regression, also called a logit model, is used to model dichotomous outcome variables. I...