Delta metodu nədir?

Reqresin kənarları üçün standart səhvləri hesablamaq üçün bir neçə yol var. Haşiyənin özü üçün bir ehtimal sıxlığı funksiyası çıxarmaq mümkün ola bilər, amma bu bəlkə də böyük bir ağrıdır və hətta mövcud olmaya da bilər. Haşiyə üçün standart səhvlər yaratmaq üçün simulyasiya və ya açılışdan istifadə etmək də mümkündür.

Bu paketdə Stata'nın margins əmrini izləyirik və \ (\ frac üçün qapalı formalı bir həll yolundan istifadə edən yarı parametrik bir metod olan delta metodundan istifadə edirik. ^ (X \ beta))>\) simulyasiya və ya önyükləmə metodlarına nisbətən hesablama müddətini yaxşılaşdırmaq.

Delta metodu

Delta metodu, məlum dispersiyaya malik asimptotik olmayan normal təsadüfi dəyişənlərin funksiyasının varyansını çıxarmaq üçün ümumi bir üsuldur. Bu vəziyyətdə, delta metodu, haşiyənin (adətən) məlumatların sonsuz dərəcədə fərqləndirilə bilən bir funksiyası, \ (X \) və \ (\ beta \) s vektorunun qapalı forma əldə etməsindən faydalanır. marjın standart səhvləri üçün həll. 1

Xüsusilə, delta metodu, \ (X \) və \ (\ beta \) s qonşuluğundakı marginə yaxınlaşmaq və bu nöqtəyə yaxın variasiya çıxarmaq üçün regresiyanın tərs bağlantı funksiyasının Taylor seriyası genişlənməsindən istifadə edir.

Taylor Series haqqında bir xatırlatma

Taylor genişlənməsi faydalı bir vasitədir, çünki \ (G (x) \) türevləri (sonsuz cəmi) baxımından \ (G (x) \) fərqli bir funksiyanı yenidən düzəltməyimizə imkan verir. Daha dəqiq desək, \ (a \) səviyyəsində qiymətləndirilən sonsuz bir fərqləndirilə bilən \ (G (x) \) kimi yazmaq olar.

Bəzi şərtlərdən sonra genişlənməni kəssək (ikisi ümumi), faydalı bir yaxınlaşma əldə edə bilərik (G (x) \).

Taylor Seriyası və Delta Metodu

Reqressiya modelinin \ (\ text \) 2 əlaqə funksiyasına malik olduğu proqnozlaşdırılan kənarlıqlar (səviyyələr) vəziyyətində, \ (X_1 \) dəyişkənliklərdə \ (P_m \) proqnozlaşdırılan səviyyələrin sütun vektoru

Eyni reqressiyanın \ (P_e \) proqnozlaşdırılan təsirləri \ (X \ beta \) funksiyasıdır.

Effektin davamlı və ya kategorik bir dəyişən üzərində olmasından asılı olaraq, bu, həqiqi bir törəmə (ani dəyişmə dərəcəsi) və ya \ (X \) dəyərində hesablanan \ (P (X \ beta) \) çıxma ola bilər. başqasından (ilk fərq).

Taylor genişlənməsindən istifadə edərək \ (X \ beta \) nöqtəsi ətrafında təsadüfi dəyişənin ixtiyari funksiyası olan \ (P \) 3-a yaxınlaşdıra bilərik.

İndi qayğı göstərəcəyimiz fərqli kənarları əvəz edə bilərik. Proqnozlaşdırılan səviyyələr üçün Taylor genişlənməsidir

Kategorik dəyişənlərin proqnozlaşdırılan təsirləri üçün təsirləri \ (P_e (X_1 \ beta - X_2 \ beta) \) səviyyəsində qiymətləndirməyə çalışırıq, bu da bizə imkan verir.

Davamlı dəyişənlərin proqnozlaşdırılan təsirləri üçün marjinal effekt bir törəmədir, buna görə

Delta Metodu necə işləyir?

Yuxarıdakı tənliklər proqnozlaşdırılan səviyyələrə və effektlərə necə yaxınlaşacağımızı təsvir edir, amma niyə sadəcə \ (P (X \ beta) \) təxminimizi hesablamırıq?

Bunu nöqtə qiymətləndirməsi üçün edə bilərik, eyni zamanda bu qiymətləndirmədə səhvləri hesablamaq istəyirik və \ (P (X \ beta) \) fərqi məlum deyil. Xoşbəxtlikdən, biz bilər yuxarıda ədədi uyğunsuzluğunu hesablamaq. Vikipediyada çox dəyişkən delta metodunun həqiqətən gözəl bir çıxışı var:

\ (X_1 \ beta \) bilinən bir nöqtə olduğundan, sıfır dispersiyasına sahibdir, buna görə də bunu asanlaşdırır

Varyansdakı ilk müddət, yakobian matrisimiz olaraq da bilinən təxminçimizin qismən törəmələrinin vektorudur. 4 Bir reqressiyada \ (i \) tərəfindən indeksləşdirilən hər hansı bir proqnozlaşdırılan səviyyə üçün, yakobianın \ (i, j \) elementi regressor \ (j \) ilə əlaqəli proqnozlaşdırılan \ (i \) səviyyəsinin türevi olacaqdır. . Bunlar sabit miqdardır. Biz də \ (X \ beta \) dispersiyasını bilirik, çünki bizim varyans-kovaryans matrisimiz \ (V \). 5

Beləliklə, təsadüfi bir dəyişənin varyansını tapa bildiyimiz sabit bir matrisə vurmaq istəyirik. 6

Buna görə praktik olaraq desək, varyansımızı əldə etmək üçün tərs keçid funksiyasının qismən törəmələrini regresiyadan orijinal varyans-kovaryans matrisi ilə əvvəlcədən və sonradan çoxaltacağıq.

\ (X \ beta \), \ (J \) tərs əlaqə funksiyasının jakobiya matrisini hesablayın. 7

Reqressiya çıxışından dispersiya-kovaryans matrisi olan \ (V \) alın və ya başqa bir şəkildə hesablayın. 8

Sandviç matrisləri çoxaldır: \ (J ^ VJ \). \ (K \) proqnozlaşdırılan səviyyələr / effektlər üçün bir \ (k \ dəfə 1 \) matrislə sona çatacaqsınız.

Misal

Margex məlumatlarını istifadə edərək bir lojistik reqressiya qurduğumuzu söyləyin və fərqli müalicə qrupları üçün proqnozlaşdırılan nəticə ilə maraqlandıq:

burada müalicə dəyişəni \ (\ tau \ \ 'də). \ (\ Tau = 0 \) və \ (\ tau = 1 \) olduqda orta nəticə nə qədərdir?

Yalnız bu nəticələrə əsasən, fərqli müalicə qrupları üçün proqnozlaşdırılan nəticənin nə olduğunu bilmirik, çünki katsayıları birbaşa şərh edə bilmirik: bir qarşılıqlı təsir termini var və hər bir dəyişikliyin təsiri digər kovyatların səviyyələrindən asılıdır .

Nöqtə təxminləri

Müxtəlif müalicə dəyərləri üçün nəticənin orta səviyyələrini qiymətləndirmək üçün, bütün verilənlər bazası üçün müalicəni 0 və ya 1 olaraq təyin edə bilərik, verilənlər bazası üçün proqnozlaşdırılan nəticələr və nəticələrin ortalamasını (başqa sözlə, nəticə nə ilə nəticələnəcəkdir) əgər hamı nəzarət / müalicə qrupundadırsa?). Modelimizin xətti proqnozlaşdırıcıları (bu vəziyyətdə \ (\ tau = t \) ayarı) aşağıdakı şəkildə verilir: \ [\ hat _i = \ alpha + \ beta_1 \ cdot t + \ beta_2 \ cdot \ text _i + \ beta_3 \ cdot (t \ cdot \ text _i) \] ayrıca \ (\ hat kimi tanınır _i = X_i \ beta \). Daha sonra xətti proqnozlaşdırıcıları tərs keçid funksiyası ilə nəticə dəyişəninin miqyasına (ehtimal olunan ehtimallar) çevirə bilərik: \ [f (z) = \ frac \] Nəhayət, bu proqnozlaşdırılan ehtimalların ortalamasını götürərək orta proqnozlaşdırılan səviyyəni tapa bilərik. Bunları birləşdirərək aşağıdakılara sahibik: \ [P (X \ beta) = \ frac \ sum_ ^ n \ frac \] İndi R-də bunu edək: müalicəni 0 və ya 1-ə təyin edək, xətti prediktorlar yaradır, proqnozlaşdırılan nəticələrə çeviririk və demək.

Fərqlilik

Hələlik bu olduqca sadədir, lakin bu təxminlərin standart səhvini bilmək istəyirik.

Yalnız R əmrini istifadə etmək, proqnozlaşdırmaq (model, newdata, se.fit = TRUE), müalicəni 0 və ya 1-ə düzəltmək və ortaya çıxan standart səhvlərin ortalamasını tapmaq cazibəsi ola bilər. Bunu etmə! Verilənlər bazanızdakı hər bir müşahidənin proqnozlaşdırılan nəticəsinin standart səhvlərini orta hesablayacaqsınız - bu, axtardığımız müəyyən bir təxmin üçün standart səhv tapmaqla eyni şey deyil .

Yuxarıda izah edildiyi kimi, proqnozlaşdırılan kənarların varyansını təqribən görə bilərik: jakobianı təmsil etmək üçün \ (J \) istifadə edərək (hər \ (\ beta \) parametrinə görə çevrilməmizin törəməsi), sonra

Əvvəldən fəaliyyətimizə qayıdaraq, müalicə əmsalı ilə başlayaq \ (\ beta_1 \). Əvvəlcə biz yalnız qayda tətbiq edirik (və son mərhələdə zəncir qaydası):

Bir saniyəlik havaya gəlmək: bu son ifadədəki son müddət nədir?

\ (X_i \ beta = \ alpha + \ beta_1 \ tau_i + \ beta_2 \ text _i + \ beta_3 (\ tau_i \ cdot \ text _i) \), buna görə bunun \ (\ beta_1 \) ilə əlaqəli törəməsi yalnız \ (\ tau_i \) olur. Buna görə də

Bəs digər şərtlər necədir? \ (X_i \ beta \) termini əlavə olaraq ayrılmaq mümkün olduğundan, sonunda fərqli bir müddətə sahib olmaq istisna olmaqla, hər bir müddət eynidır. Məsələn, \ (\ beta_2 \) ilə əlaqəli türev olacaqdır

Bunu yenidən yazmaq olar

Birinci müddət tərs keçid funksiyasının törəməsini modeldəki hər bir xətti proqnozlaşdırıcıya tətbiq edir, ikinci müddət isə verilərimizdən dəyişən matrisdir! Nə qədər əlverişlidir! Bütün ümumi xətti modellər üçün doğru olacaqdır. Beləliklə, bunu yenidən yaza bilərik

Dəyişməyimizin \ (JVJ ^ T \) olduğunu və \ (i \) hamısı üçün \ (X_i \ beta \) hesabladığımızı xatırladaraq bunu R-də etmək nisbətən sadədir:

Baxış-icmal

Tamam, təxminlərimiz və fərqliliklərimiz var:

Modmarg-dan nə əldə edirik?

“Ümumiyyətlə”, çünki bu bəyanat tələb edir ki, regresiya üçün kanonik əlaqə funksiyası qapalı formalı bir törəmədir. Xoşbəxtlikdən, bu ən çox yayılmış xətti reqressiya formaları üçün doğrudur.↩︎

Bağlantı funksiyasının dəqiq forması və tərsliyi regresiyanın növündən asılı olacaqdır. Məsələn, logit funksiyası lojistik reqressiya üçün kanonik əlaqə funksiyasıdır və ehtimallar ilə log-odds arasında çevrilmələrə imkan verir.

\ (X \) girişini sabit və \ (\ beta \) təsadüfi bir dəyişən kimi qəbul etdiyimizi unutmayın

Jacobian matrix yalnız vektor dəyərli bir funksiyanın bütün ilk qismən törəmələrinin matrisinin adıdır.

Əgər modelinizdə \ (b_0 \) - \ (b_n \) (hər biri ortalama \ (\ mu_ \) və standart sapma \ (\ sigma_ \)), varyans-kovaryans matrisinin \ (i, j \) elementi \ (cov (b_i, b_j) \). \

Tez xatırlatma: skalar üçün \ (a \) və \ (r \) üçün, burada \ (b \) təsadüfi dəyişənin \ (r \), \ (\ text (a \ cdot r) \) \ a ^ 2 \ cdot b \). \ (A ^ 2 \ cdot \ text (b) \) ' in matris analoqu \ (ABA ^ T \)' dir.

Yakobianın hesablanmasına dair bəzi praktik qeydlər: vinyetin altındakı nümunə, yakobianın proqnozlaşdırılan səviyyələr üçün necə yaxşı hesablanacağını əks etdirir. Proqnozlaşdırıcı effektlər üçün böyük dəyişiklik budur ki, artıq proqnozlaşdırılan effektlər üzrə dispersiyanı hesablayırsınız, beləliklə bağlantı funksiyasının ikinci törəməsini (birinci törəmə əvəzinə) götürməlisiniz. Kategorik dəyişənlər üçün səviyyələrin hər birini baza səviyyəsindən çıxarıb jakobian kimi qaytarmaqla ikinci törəməni götürə bilərsiniz. Davamlı dəyişənlər üçün, keçid funksiyasının ikinci törəməsini həqiqətən hesablamalı və yuxarıdakı birinci törəmənin yerinə istifadə etməlisiniz.İkinci türevi açıqca hesablamalısınız, çünki yuxarıdakı kategorik dəyişənlərlə olduğu kimi bir aralığın dəyişmə sürətindən fərqli olaraq ani bir dəyişiklik nisbətini istəyirsiniz.

Ümumiyyətlə regresiyanın varyans-kovaryans matrisini istəyəcəksiniz, ancaq standart səhvlər və ya bir şeylər qruplaşdırmaq istəyirsinizsə standart dispersiya-kovaryans matrisini dəyişdirməlisiniz.

Qeyd edək ki, ifadənin ilk hissəsi bəzən \ (\ frac \ cdot \ frac \) yazılır çünki bu, \ (\ frac \ mətni nəzərdə tutur ^ (X \ beta) = \ mətn ^ (X \ beta) \ cdot \ text ^ (-X \ beta) \) ↩︎