18 - No modelo de análise de regressão y = Xβ + ε, as variáveis X são chamadas independentes; as colunas de X são ditas linearmente independentes e os elementos de ε, por hipótese, são distribuídos independentemente. Com relação aos significados de independência usados acima, pode-se afirmar que
I - os ε’s são independentemente distribuídos para que se possam estimar os parâmetros β pelo método de mínimos quadrados;
II - as variáveis X são ditas independentes porque não dependem de y;
III - as colunas de X são linearmente independentes para que essas variáveis não sejam correlacionadas.
É correto o que se afirma em
(A) I, apenas.
(B) I e II, apenas.
(C) I e III, apenas.
(D) II e III, apenas.
(E) I, II e III.
Resolução:
Item I - A aplicação do método de mínimos quadrados não depende de os erros aleatórios ε serem independentes. Os estimadores do modelo clássico continuarão sendo não-tendenciosos, porém não serão eficientes. ERRADO.
Item II - No modelo de regressão, dizemos que Y é função linear das variáveis X, ou seja, Y depende dos valores de X. As variáveis X são independentes ou explanatórias. São elas que permitirão explicar o valor de Y. CERTO.
Item III - De fato, um dos pressuposto do modelo de regressão múltipla é que as variáveis X sejam independentes uma das outras. Assim, elas devem ser não correlacionadas, o que se reflete na independência entre as colunas da matriz X. CERTO
Para entender esse pressuposto, basta pensar o seguinte: num modelo com duas variáveis independentes, x1 e x2, se houver relação linear exata entre x1 e x2, então podemos expressar x2 como função de x1. O resultado é que o modelo acaba tendo uma única variável independente de fato que seria x1.
Gabarito: Letra D
Enviar um comentário
0 Comentários