Buscar

Int. à Econometria Regressão Múltipla Interpretação

Prévia do material em texto

Regressão Simples
Professora: michelle nunes
Cap 3,4 e 5 do gujarati
Econometria
Gujarati cap 3 - MODELO DE REGRESSÃO SIMPLES (2 VARIÁVEIS) - O PROBLEMA DA ESTIMATIVA
Cap 8 - Gujarati
ANÁLISE DE REGRESSÃO MÚLTIPLA
O PROBLEMA DA INFERÊNCIA (CONCLUSÃO)
O Método de Regressão Múltipla
Passa pelas médias de X e Y: pode ser visto pelos estimadores de β1 e β2 e mostra que, as estimativas não conseguem calcular o valor real/total do comportamento do indivíduo ou mercado, mas, expressam a média dos mesmos
Ŷ = Ϋ: o valor MÉDIO estimado = ao valor MÉDIO real.
Os resíduos não têm correlação com Yi, isto é, ΣûYi = 0:
Os estimadores de MQO dos coeficientes de regressão parcial são MELNV – Melhor Estimador Linear Não Viesado ou, BLUE:
Interpretação da Equação: O Significado dos Coeficientes
Estimativas por MQO dos Coeficientes de Regressão Parcial
Variâncias e Erros-padrão dos Estimadores de MQO
O Coeficiente Múltiplo de Determinação R²
Dados para aula prática
EXEMPLO 7.1: CÁLCULO DE ESTIMATIVAS E R² PELA CURVA DE PHILLIPS PARA OS EUA, 1970-82
O modelo estudado é Yt = β1 + β2X2t + β3X3t + ut onde Yt = taxa efetiva de inflação (%) no instante t, X2t = taxa de desemprego (%) no instante t e X3t = taxa esperada de inflação (%) no instante t.
De acordo com a teoria macroeconômica, espera-se que β2 seja negativo, pois, um aumento na taxa de desemprego, diminui o poder de barganha do empregado que facilmente aceitará, por não ver outra oportunidade, uma queda em seu salário nominal; essa queda diminuirá o custo do empregador que “poderá”, e em geral acontece, diminuir os preços via diminuição no murkup.
Já β3 espera-se que seja positivo, em geral igual a 1, pois, se os responsáveis pela fixação dos salários esperarem um nível de preços maior, buscarão um salário nominal maior para compensar a perda do poder de compra; esse aumento do salário, aumentará o custo do empregador que, para não diminuir seu murkup, aumentará os preços, e em geral, essa “compensação” se dá na mesma proporção, por isso espera-se β3 = 1.
Dados para aula prática
ANO
Y
X2
X3
1970
5,92
4,90
4,78
1971
4,30
5,90
3,84
1972
3,30
5,60
3,13
1973
6,23
4,90
3,44
1974
10,97
5,60
6,84
1975
9,14
8,50
9,47
1976
5,77
7,70
6,51
1977
6,45
7,10
5,92
1978
7,60
6,10
6,08
1979
11,47
5,80
8,09
1980
13,46
7,10
10,01
1981
10,24
7,60
10,81
1982
5,99
9,70
8,00
Σ
100,84
86,50
86,92
TABELA 7.1 – Taxa efetiva de inflação Y(%), taxa de desemprego X2 (%) e taxa esperada de inflação X3 (%), Estados Unidos, 1970-1982
Saída do Eviews – aula prática
TESTE DE HIPOTESE EM REGRESSÃO MÚLTIPLA
TESTE DE HIPÓTESE SOBRE COEFICIENTES INDIVIDUAIS
Modelo: Y = β1 + β2RPD + β3tempo, de 1956-1970 (15 obs.)
Para um teste bicaudal: t à α/2 = 2,5% = 2,179, com 12 gl.
Para um teste unicaudal: t à α = 5% = 1,782, com 12 gl.
Assim  
Será o teste t, utilizado para testar uma hipótese sobre qualquer coeficiente de regressão parcial INDIVIDUAL. 
INTERVOS DE CONFIANÇA EM REGRESSÃO MÚLTIPLA
Os Intervalos de Confiança seriam:
Conferir no Excel!
Cada coeficiente estimado de regressão parcial é estatisticamente significativo, ou seja, significativamente diferente de zero, pois o valor t calculado em cada caso excede o valor crítico de t; 
INDIVIDUALMENTE, podemos rejeitar as hipóteses nulas individuais. 
Os valores p são extremamente baixos chegando ao mesmo resultado em um nível de significância muito mais baixo que os convencionais 5% e 1%.
TESTE DE HIPOTESE EM REGRESSÃO MÚLTIPLA
TESTE DE SIGNIFICÂNCIA GLOBAL DA REGRESSÃO
Seu objetivo é analisar se Y tem relação linear tanto com X2 quanto com X3, X4,..., Xk. 
Seu procedimento consiste em obter um intervalo de confiança, e/ou somente um teste de significância conjunto, onde as condições analisadas servem para todas as variáveis inclusas no modelo. Por isso é chamado de teste de significância global da reta de regressão. 
Essa hipótese conjunta pode ser testada através da técnica da Análise de Variância – ANOVA a partir da qual obtemos a estatística de teste F que mede o efeito conjunto das variáveis explicativas sobre a variável dependente, ou seja, verifica se, pelo menos, uma das variáveis explicativas do modelo exerce efetivamente alguma influência sobre a variável dependente. 
A tabela de ANOVA da regressão múltipla segue a mesma estrutura da regressão simples, salvo que, a soma dos quadrados explicada (a parcela da variação de Y explicada pelas variáveis explicativas) muda devido o acréscimo demais vaiáveis. Os graus de liberdade de SQE e SQR seguem a regra geral, ou seja, o gl de SQE = k (k = nº de variáveis explicativas inclusas no modelo) e o gl de SQR = n-k-1. Assim:
TESTE DE HIPOTESE EM REGRESSÃO MÚLTIPLA
TESTE DE SIGNIFICÂNCIA GLOBAL DA REGRESSÃO
ANOVA
TESTE DE HIPOTESE EM REGRESSÃO MÚLTIPLA
TESTE DE SIGNIFICÂNCIA GLOBAL DA REGRESSÃO
TESTE DE HIPOTESE EM REGRESSÃO MÚLTIPLA
TESTE DE SIGNIFICÂNCIA GLOBAL DA REGRESSÃO
Generalizando, o teste de significância global é dado por:
H0: β2 = β3 = ... = βk = 0
H1: β2 ≠ β3 ≠ ... ≠ βk ≠ 0, ou seja, nem todos os coeficientes de inclinação são simultaneamente iguais a zero.
Se Fc > Ft com [(k-1), (n-k)]gl, rejeita H0; caso contrário, não rejeita. Onde: Ft [(k-1), (n-k)] é o valor crítico de F em nível de significância de α; (k-1) é o gl do numerador e (n-k) é o gl do denominador. Alternativamente, se o valor p do F for suficientemente baixo, podemos rejeitar H0.
Se o R² = 0, F = 0;
Quanto maior o R², maior o valor de F;
Quando R² = 1, F é infinito.
F e R² utilizados na comparação de modelos
Em geral, o R² ajustado aumentará com a adição de uma variável explicativa, se somente se, o valor t dessa variável exceder a 1. 
Similarmente, o R² ajustado aumentará (ou diminuirá) com a adição (subtração) de um grupo de variáveis ao modelo se o valor F for maior (menor) que 1.
Podemos detectar o poder explicativo de uma variável explicativa sobre a variável dependente, dada outra que já esteja no modelo, regredindo-as separadamente e comparando-as com a regressão conjunta. 
No caso estudado até aqui, ao regredir Y sobre X2 obtemos um determinado SQE e só adicionaremos uma variável X3 se essa aumentar o SQE e, consequentemente, R², analisando através de sua estatística t (se ela for maior que 1). Por isso essa contribuição é chamada de contribuição incremental ou marginal de uma variável explicativa.
F e R² utilizados na comparação de modelos
Toda essa análise pode ser feita pela tabela de ANOVA que, conjuntamente, para uma melhor visualização é estendida para:
Tabela de ANOVA para avaliar a contribuição incremental de uma ou mais variáveis
F e R² utilizados na comparação de modelos
Toda essa análise pode ser feita pela tabela de ANOVA que, conjuntamente, para uma melhor visualização é estendida para:
Tabela de ANOVA para avaliar a contribuição incremental de uma ou mais variáveis
F e R² utilizados na comparação de modelos
Logo, com base nos testes F, podemos rejeitar a hipótese nula de que β3 = 0 e concluir que o acréscimo de X3i ao modelo aumenta significativamente a SQE e, consequentemente, o valor de R². Portanto, a variável de tendência (tempo) X3i deve ser acrescentada ao modelo.
TESTE DA IGUALDADE ENTRE DOIS COEFICIENTES DE REGRESSÃO
Trata-se de um teste de igualdade entre duas ou mais variáveis inclusas no modelo a fim de detectar se elas têm a mesma natureza, como por exemplo, a renda e a riqueza, testadas através da estatística t. As hipóteses testadas são:
Portanto, o procedimento é: 
Estimar normalmente os parâmetros;
Calcular as variações e covariações dos parâmetros com pacotes econométricos, o SPSS, para substituir em t;
Calcular t pela fórmula anterior;
Se tc > tt ao nível de significância de 5%, rejeita a hipótese nula, caso contrário, não rejeita. 
TESTE DE RESTRIÇÕES DE IGUALDADES LINEARES
TESTE DE ESTABILIDADE ESTRUTURAL DE MODELOSDE REGRESSÃO
Trata-se da comparação de dois ou mais modelos idênticos, porém, em períodos diferentes, a fim de verificar se a mudança estrutural (do período) afeta a regressão. O nº de observações nos dois ou mais períodos pode ser igual ou diferente.
Em geral, uma mudança estrutural pode significar que:
os dois ou mais interceptos (β1) sejam diferentes, 
as duas ou mais inclinações sejam diferentes, 
tanto o intercepto como as inclinações sejam diferentes ou qualquer outra combinação adequada dos parâmetros. 
O teste para verificar se há uma mudança estrutural é chamado de teste de Chow, em homenagem a Gregory Chow, ou simplesmente, teste F. 
O teste é feito da seguinte forma:
Estima-se uma equação só, com todas as observações e obtêm-se a SQR com gl = n – k – 1, chamada de SQR1, por exemplo;
Estima-se as equações dos períodos separadamente, obtêm-se suas respectivas SQRs com seus respectivos graus de liberdade, e, soma-se essas SQRs fazendo, por exemplo, para dois períodos, SQR4 = SQR2 + SQR3, com gl = (n1 + n2 – 2(k-1));
Obtêm-se uma quinta SQR resultante da subtração de SQR1 e SQR4, ou seja, SQR5 = SQR1 – SQR4;
Obtêm-se o teste F dado por F = [SQR5 / k] / [SQR4/ (n1 + n2 – 2(k-1))]. Se Fc exceder Ft, ao nível de significância escolhido, rejeita a hipótese de que as regressões individuais são iguais, ou seja, rejeita a hipótese de estabilidade estrutural. Alternativamente, se o valor p do Fc for baixo, rejeita a hipótese de estabilidade estrutural.
TESTE DA FORMA FUNCIONAL DA REGRESSÃO
Trata-se da escolha entre modelos com formas funcionais diferentes, visando àquele que melhor se ajustar aos dados. O autor dá como exemplo, a escolha entre a forma linear e a log-log e utiliza para tanto, o teste de MWD proposto por Mackinnon, White e Davinson, com base nas hipóteses:
O teste envolve os seguintes passos:
 
Estimar normalmente a regressão linear, obter valores estimados de Y (=Ŷ) e logaritmizá-los ⇒ ln(Ŷ);
Estimar normalmente a regressão log-log e obter seus valores estimados;
Obter Z1 = ln(Ŷ) – lnŶ;
Regredir Y sobre os Xs e Z1 obtido no passo anterior.
Obter Z2 = antilog de lnŶ
Regredir Y sobre os logs de Xs e Z2. Rejeita H1 se o coeficiente Z2 for estatisticamente significativo pelo teste t usual.
 
Se o modelo linear for de fato o modelo correto, Z1 não deve ser estatisticamente significante nessa regressão, pois, os valores estimados de Y no modelo linear e os estimados no modelo log-log dado a seguir NÃO devem ser diferentes.
Para melhor fixação, exemplo nas páginas 259 e 260.
PREVISÃO COM REGRESSÃO MÚLTIPLA
A regressão múltipla e utilizada para previsão, da mesma forma que a regressão simples.
Para obter o valor médio de Y para uma determinada observação, basta substituir os valores coletados das variáveis explicativas na regressão estimada.
O QUE MUDOU DA REGRESSÃO SIMPLES PARA A MÚLTIPLA??
As 10 hipóteses clássicas continuam valendo, salvo que elas se estendem para mais de duas variáveis no modelo;
As propriedades da reta estimada continuam as mesmas, salvo que elas se estendem para mais de duas variáveis no modelo. O que é obvio, já que a reta é resultante das hipóteses clássicas;
As estimativas obtidas através de derivação se estendem um pouco mais, fazendo com que sejam mais trabalhosas/complicadas de se fazer à mão e menos dispendioso utilizar um pacote econométrico (Eviews, SPSS etc.);
As interpretações de uma forma geral, olhando a questão da variação, continuam as mesmas, porém, agora, os coeficientes são chamados de coeficientes de inclinação parciais cuja influência se dá quando as demais variáveis são mantidas constantes. O coeficiente de intercepto tem a mesma interpretação;
As equações normais seguem a mesma seqüência, salvo que elas são estendidas para mais de duas variáveis n modelo;
As variâncias e covariâncias, seguem o mesmo raciocínio, porém, um pouco mais trabalhoso. O recomendável é analisar e obtê-los através de um pacote econométrico. A forma matricial chamada de matriz de variância e covariância dada no SPSS é a mais fácil de analisar e obter números;
O R², tendo a mesma interpretação, porém, estendido a mais de UMA VARIÁVEL EXPLICATIVA, passa a ser chamado de coeficiente múltiplo de regressão. A sua raiz quadrada, chamada de coeficiente múltiplo de correlação, tem uma interpretação um pouco mais aprimorada, dada a influência de outras variáveis explicativas no modelo;
A questão da ausência de viés é mais elaborada, merecendo um pouco mais de atenção;
O intervalo de confiança e teste de hipóteses individuais seguem a mesma lógica para cada parâmetro;
O QUE MUDOU DA REGRESSÃO SIMPLES PARA A MÚLTIPLA??
A questão de forma funcional também segue o mesmo raciocínio, retratando agora, mais realidade por conter restrições determinadas pela teoria econômica;
A hipótese de normalidade para todos os termos, continua a mesma;
O teste t segue a mesma linha;
É mais utilizado agora (por ser “novo”), o coeficiente conjunto F, sendo por isso um pouco mais aprimorada e estudada;
É introduzido o conceito de contribuição incremental ou marginal de uma variável explicativa; e testes como:
Igualdade entre coeficientes: vê se o pesquisador não se equivocou entre duas variáveis que ele colocou no modelo, ajudando a reduzir o problema de multicolinearidade;
Restrições: vê se certas condições impostas pela teoria econômica são satisfeitas;
Estabilidade estrutural: vê se mudanças de períodos em estudo afeta a regressão;
Forma funcional: busca a forma que melhor se ajusta ao problema;
A previsão continua a mesma. Salvo que ela dependerá de mais variáveis explicativas.