第11 章Multinomial choice model | 數量方法(一) - Bookdown

文章推薦指數: 80 %
投票人數:10人

11.2.1 Random Utility · 11.2.2 Multinomial Logit Model · 11.2.3 Identification · 11.2.4 Multinomial Probit. 教師基本資訊 課程大綱 電子書 線上討論室 課前應完成項目 討論室/書籤 評分方式 主題內容 參考書籍 Cheatsheets 上課步驟 作業 IPartI:OLS 1OLS 1.1因果關連 1.2效應評估 1.3選擇偏誤 1.4條件式獨立 1.5複迴歸模型 2RinOLS 2.1參考資料 2.2setup 2.3dataframe物件 2.4資料處理:產生新變數dplyr::mutate 2.5因果問句 2.6效應評估 2.7進階關連分析 2.8複迴歸模型 2.9broom 2.10模型比較 IIPartII:Instrumentalvariables 3IV 3.1效應評估模型 3.2最小平方法估計式 3.3選擇性偏誤 3.4複迴歸模型 邏輯推論潛在「選擇性偏誤」 變數訊息拆解 3.5工具變數 變數訊息拆解 3.5.1相關性條件(Relevancecondition) 3.5.2排除條件(Exclusioncondition) 3.5.3兩階段最小平方法 工具變數:香煙稅 3.6兩階段最小平方法 3.7認定條件 3.8幾個範例 EndogeneityBias Neutralityofmoney Laborsupplyandlabordemand 3.9最小平方法的幾何意義 正交投射 範例1:最小平方法 範例2:一個工具變數下的TSLS 範例3:二個工具變數下的TSLS 3.10三個檢定 Q1:排除條件檢定 Q2:工具變數關聯性檢定 Q3:遺漏變數偏誤(OVB)檢定 3.11幾個觀念 4RforIV 4.1setup 4.2資料結構觀察 4.3產生新變數 4.4迴歸模型 設定formulae 4.5OLS估計 OLS結果比較 4.6TSLS估計 假設檢定 IIIPartIII:PanelData 5Panel 5.1效應評估模型 5.2遺漏變數偏誤 5.3訊息拆解 5.4固定效果模型 5.5差分最小平方法 5.6組內差異最小平方法 5.7常見的固定效果模型 5.8認定問題 效應變數變動面向 LSDV虛擬變數個數 5.9廣義的固定效果模型 5.10異質變異 5.11隨機效果模型 5.12Hausman檢定 6Rforpaneldata 6.1引入資料 6.2載入Panel套件:plm 6.3初步資料觀察 6.4組內差異 6.5使用Dummies OLS Randomeffect Fixedeffect 模型比較 6.6Hausman檢定 6.7固定效果 IVPartIV:DifferenceinDifferences 7Difference-in-Differences(DiD)Estimation 7.1效應評估模型 7.2個體資料對上總體變數 7.3訊息拆解 7.4複迴歸模型 7.5固定效果 組固定效果 時間固定效果 資料追踪/不追踪 7.6時間效果固定/不固定 7.7差中差(Difference-in-differences,DD)估計法 7.8DD迴歸模型設計 7.9誤差項自我相關與異質變質 7.10聚類標準誤(clusterstandarderror) 參考資料 8Rfordifference-in-differences 8.1DataImport 8.2資料屬性檢查 8.3不同州,政策前後的改變 8.4繪圖 整理資料格式:tidyr::gather() 繪圖 8.5Difference-in-differences 8.6聚類標準誤:library(clubSandwich) 8.7Panel:Fixedeffect VPartV:DiscreteChoice 9Binarychoicemodel 9.1隨機效用模型(RandomUtilityModel) 9.2最大概似估計法(MaximumLikelihoodEstimation,MLE) 事件發生機率與參數 概似函數 最大概似估計法 9.3ProbitandLogit Probitmodel Logitmodel 9.4配適度 9.5邊際效果 9.6漸近分配 10RforBinaryChoiceModels 10.1二元選擇模型 10.2初步資料觀察 次數分配 條件機率 10.3模型估計 Logit模型 Probit模型 10.4配適度 (McFadden)Pseudo-R2 計算預測準確率 10.5邊際效果 代表性個人 全體邊際效果平均 11Multinomialchoicemodel 11.1Orderedchoice(可排序選擇) Goodness-of-Fit 概似函數 MarginalEffect 11.2Unorderedchoice(不可排序選擇) 11.2.1RandomUtility 11.2.2MultinomialLogitModel 11.2.3Identification 11.2.4MultinomialProbit 12RforMultinomialChoice 12.1多元可排序選擇模型(ordered) 12.2多元不可排序 12.2.1兩種常見資料格式 12.2.2Formula 12.2.3Multinomiallogit 12.2.4MultinomialProbit Appendix AppendixA:線上討論 Hypothes.is Gitterchatroom AppendixB:GitHub 數量方法(一) 第11章Multinomialchoicemodel 11.1Orderedchoice(可排序選擇) 0-10分自我衡量健康滿意度 1-5分課程評量 ThereareJ+1optionsfrom0toJ.Anindividual’schoicedependsonthelatentvariableY_i^*suchthat \[Y_{i}^*=X_{i}^{'}\beta+\epsilon_{i},\] where\(\epsilon\)hasapdf\(f(.)\)andaCDF\(F(.)\). Thelargerthe\(Y_i^*\)thehigheroptionnumberthathewillchoose.TheremustbeJthresholds\[\mu_{0}<... k j itfollowsthat pr goodness-of-fit pseudo- prediction:predictedchoice andcomputethepercentageofcorrectprediction. thelikelihoodfunctionandmle since themlesistosolvefor marginaleffect if u_ f>U_B,U_A>U_C)\\ &=&\frac{1}{1+\exp(V_{B}-V_A)+\exp(V_{C}-V_A)}. \end{eqnarray*}\] 11.2.3Identification For\(U=V+\epsilon\),\(V\)consistsofalltheregressors\({\bfX}\) sothat\(V={\bfX}\beta\).However,notall\(\beta\)canbeestimated (oridentifiedmorespecifically)sincewecanonlyinferthedifference of\(V\)betweenoptions.Considerthefollowing\(V\)setup: \[V_{ij}=\alpha_j+\betax_{ij}+\gamma_jz_i+\delta_jw_{ij}+\tauq_{i}.\] Towhatextendcanweestimatethoseparameters? Readmore… onlythe\(\alpha_j-\alpha_{k}\)canbeestimated,buttheirnotseparatelevels. \(\beta\)canbeestimated. onlythe\(\gamma_j-\gamma_k\)canbeestimated,buttheirnotseparatelevels. all\(\delta_j\)scanbeestimated. \(\tau\)cannotbeestimated. 以\(V_{ij}-V_{i1}\)為例,最後我們只會有 \[V_{ij}-V_{i1}=(\alpha_j-\alpha_1)+\beta(x_{ij}-x_{i1})+(\gamma_j-\gamma_1)z_i+\delta_jw_{ij}-\delta_jw_{i1}.\] 可以分成三大區塊: \(x_{ij}\)withconstantcoefficient:\(\beta(x_{ij}-x_{i1})\) \(z_i\)withalternativevaryingcoefficient:\((\alpha_j-\alpha_1)+(\gamma_j-\gamma_1)z_i\) \(w_{ij}\)withalternativevaryingcoefficient:\(\delta_jw_{ij}-\delta_jw_{i1}\). 11.2.4MultinomialProbit 假設 \[ \left[\begin{array}{c} \epsilon_{i0}\\ \epsilon_{i1}\\ \vdots\\ \epsilon_{iJ} \end{array}\right]\simN(0,\Sigma) \] MultinomialProbit比起MultinomialLogit還多了選項間的variance-covariancematrix得估算。

以A,B,C三選項為例,任何選擇只會透露兩兩效用比較結果,我們可以只看\(U_B-U_A,U_C-U_A\) 說明不論選擇結果為何,\(U_B-U_A\)及\(U_C-U_A\)兩個隨機變數即足夠表示所有對應的訊息。

\[\begin{align} U_B-U_A&=V_B-V_A+(\epsilon_B-\epsilon_A)\\ U_C-U_A&=V_C-V_A+(\epsilon_C-\epsilon_A) \end{align}\] 因為\(\epsilon\)的常態假設,故 \[ \left[\begin{array}{c} \epsilon_{A}-\epsilon_B\\ \epsilon_{A}-\epsilon_C\\ \end{array}\right]\simN(0,\tilde{\Sigma}) \] 也是常態分配。

效用函數同乘\(\alpha>0\)倍不會改變選擇結果,也就是說\(U_{j}\)與\(U'_{j}\)若有此倍數關係,它們顯示的選擇會相同。

令\(\Theta\)代表\(V_A-V_B,V_A-V_C\)裡的參數,故模型的概似函數可寫成\(L(\Theta,\tilde{\Sigma})\),請說明\((\Theta,\tilde{\Sigma})=(\Theta_0,\tilde{\Sigma}_0)\)與\((\Theta,\tilde{\Sigma})=(\alpha\Theta_0,\alpha^2\tilde{\Sigma}_0)\)會有相同的概似函數值。

上面論述表示,若不進一步限制模型參數空間,最大概似估計會有無窮多組解,也就是認定不足(under-identifying)的現象。

MultinomialProbit在估算時,除了和MultinomialLogit一樣要有一個選項為比較選項外,必需選擇一個\(\alpha\)值來滿足認定條件。

一般是選\(\alpha=1/\sigma(\epsilon_B-\epsilon_A)\)使得\(\tilde{\Sigma}\)對角線第一個variance值: \[\tilde{\Sigma}_{11}=1\]



請為這篇文章評分?