Regresja liniowa jest jednym z najważniejszych narzędzi statystycznych wykorzystywanych do analizy zależności między dwoma zmiennymi. Dzięki tej metodzie można określić, jak jedna zmienna wpływa na drugą oraz jak dużo zmienności wyniku można wyjaśnić za pomocą zmienności zmiennej objaśniającej. W przedstawionym artykule omówimy, jak interpretować wyniki regresji liniowej.
Regresja liniowa polega na wyznaczeniu linii prostej, która najlepiej odwzorowuje relację między dwiema zmiennymi. Zmienna objaśniająca nazywana jest zmienną niezależną, a zmienna objaśniana zmienną zależną. W przypadku regresji liniowej jedna zmienna jest objaśniająca, a druga objaśniana.
Prosta regresji liniowej ma postać:
y = b0 + b1x
Gdzie:
Współczynnik regresji (b1) określa, jak dużo średnio zmienia się wartość zmiennej objaśnianej w odpowiedzi na zmianę wartości zmiennej objaśniającej. Wyraz wolny (b0) określa wartość zmiennej objaśnianej, gdy zmienna objaśniająca ma wartość 0.
Po przeprowadzeniu analizy regresji liniowej otrzymujemy wiele informacji. Jednym z najważniejszych wyników jest wartość współczynnika determinacji (R²), który określa, ile zmienności zmiennej objaśnianej można wyjaśnić za pomocą zmienności zmiennej objaśniającej.
Wartość R² wynosi od 0 do 1 i wyraża ją wzór:
R² = 1 - (suma kwadratów reszt / suma kwadratów całkowitej zmienności)
Im wyższa wartość R², tym lepiej model dopasowuje się do danych. Wartość R² na poziomie 0,7 lub więcej oznacza, że model dobrze wyjaśnia zmienność zmiennej objaśnianej.
Innym ważnym wynikiem analizy regresji liniowej jest wartość p-wartości, która informuje o tym, czy istnieje istotna statystycznie zależność między zmiennymi. P-value mniejsze niż 0,05 oznacza, że mamy istotną statystyczną zależność między zmiennymi.
Wartość współczynnika regresji (b1) informuje o tym, jak dużo średnio zmienia się wartość zmiennej objaśnianej w odpowiedzi na zmianę zmiennej objaśniającej. Jeśli wartość współczynnika regresji wynosi 0, to oznacza, że zmienność zmiennej objaśnianej nie zależy od zmienności zmiennej objaśniającej.
Jeśli wartość współczynnika regresji jest dodatnia, to oznacza, że zmiana wartości zmiennej objaśniającej skutkuje wzrostem wartości zmiennej objaśnianej. Jeśli wartość współczynnika regresji jest ujemna, to oznacza, że zmiana wartości zmiennej objaśniającej skutkuje spadkiem wartości zmiennej objaśnianej.
Wyraz wolny (b0) określa wartość zmiennej objaśnianej, gdy zmienna objaśniająca ma wartość 0. Jeśli b0 jest równy 0, to oznacza, że wartość zmiennej objaśnianej jest równa 0, gdy zmienna objaśniająca wynosi 0.
Jeśli b0 jest dodatni, to oznacza, że wartość zmiennej objaśnianej jest większa od 0, gdy zmienna objaśniająca wynosi 0. Jeśli b0 jest ujemny, to oznacza, że wartość zmiennej objaśnianej jest mniejsza od 0, gdy zmienna objaśniająca wynosi 0.
Reszty są różnicą między wartościami rzeczywistymi zmiennej objaśnianej a wartościami oszacowanymi przez model. Analiza reszt pozwala na określenie, jak dokładnie model dopasowuje się do danych i czy występują jakieś niestandardowe wzorce w danych.
Jeśli reszty są losowe, to oznacza, że model dobrze dopasowuje się do danych. Jeśli reszty mają wzorzec, to oznacza, że model nie uwzględnia wszystkich czynników wpływających na zależność między zmiennymi.
Interpretacja wyników regresji liniowej pozwala na określenie, jak dużo zmienności zmiennej objaśnianej można wyjaśnić za pomocą zmienności zmiennej objaśniającej oraz czy istnieje istotna statystyczna zależność między zmiennymi. Analiza współczynnika regresji, wyrazu wolnego oraz reszt pozwala na określenie, jak dokładnie model dopasowuje się do danych.
Regresja liniowa jest jednym z podstawowych narzędzi analizy danych i znajomość sposobu interpretacji wyników tej analizy jest niezbędna dla wielu dziedzin nauki, takich jak ekonomia, psychologia czy inżynieria. Dlatego warto poświęcić czas na poznanie tej metody i jej zastosowań.