Saturday 27 January 2018

F tests in stata forex


O teste F para Definições de Regressão Linear para Regressão com Intercepção n é o número de observações, p é o número de parâmetros de regressão. Soma corrigida de quadrados para o modelo: SSM Sigma i1 n (y i - y) 2, também chamado soma de quadrados para regressão. Soma de quadrados para erro: SSE Sigma i1 n (y i - y i) 2, também chamado soma de quadrados para resíduos. Soma corrigida de quadrados Total: SST Sigma i1 n (y i - y) 2 Esta é a variância da variável y variada multiplicada por n - 1. Para modelos de regressão múltipla, SSM SSE SST. Graus de liberdade corrigidos para o modelo: DFM p - 1 Graus de liberdade para erros: DFE n - p Graus de liberdade corrigidos Total: DFT n - 1 Subtrair 1 de n para os graus de liberdade corrigidos. A regressão da linha horizontal é o modelo da hipótese nula. Para modelos de regressão múltipla com interceptação, DFD DFE DFT. Média de quadrados para o modelo: MSM SSM DFM Média de quadrados para erro: MSE SSE DFE A variância da amostra dos resíduos. De maneira análoga à Propriedade 10 de Propriedades de Variáveis ​​Aleatórias. Que afirma que s 2 é imparcial para sigma 2. pode-se mostrar que MSE é imparcial para sigma 2 para modelos de regressão múltipla. Média de Quadrados Total: MST SST DFT A variância da variável y. Em geral, um pesquisador quer que a variação devido ao modelo (MSM) seja grande em relação à variação devido aos resíduos (MSE). Nota: as definições nesta seção não são válidas para regressão através dos modelos de origem. Eles exigem o uso de somas de quadrados não corrigidas. O teste F Para um modelo de regressão múltipla com interceptação, queremos testar a seguinte hipótese nula e hipótese alternativa: H 1. Beta j ne 0, para pelo menos um valor de j Este teste é conhecido como o teste F geral para regressão. Aqui estão os cinco passos do teste F global para regressão. Indique as hipóteses nulas e alternativas: H 1. Beta j ne 0, para pelo menos um valor de j. Calcule a estatística de teste assumindo que a hipótese nula é verdadeira: MS MSM (variância explicada) (variância inexplicada) Encontre um intervalo de confiança 1 (1-alfa) I para (DFM, DFE) graus de liberdade usando uma tabela F ou software estatístico. Aceite a hipótese nula se F for em eu rejeitá-lo se F notin I. Usar software estatístico para determinar o valor p. Problema de prática: para um modelo de regressão múltipla com 35 observações e 9 variáveis ​​independentes (10 parâmetros), SSE 134 e SSM 289, teste a hipótese nula de que todos os parâmetros de regressão são zero no nível de 0.05. Resolução: DFE n - p 35 - 10 25 e DFM p - 1 10 - 1 9. Aqui estão os cinco passos do teste da hipótese: Indique a hipótese nula e alternativa: H 1. Beta j 0 para alguns j Calcule a estatística de teste: F MSMMSE (SSMDFM) (SSEDFE) (2899) (13425) 32.111 5.360 5.991 Encontre um intervalo de confiança (1 - 0.05) times100 para a estatística de teste. Olhe na tabela F na entrada 0,05 para 9 df no numerador e 25 df no denominador. Esta entrada é 2.28, então o intervalo de confiança 95 é 0, 2.34. Este intervalo de confiança também pode ser encontrado usando a chamada de função R qf (0,95, 9, 25). Decida se aceita ou rejeita a hipótese nula: 5.991 notin 0, 2.28, então rejeite H 0. Determine o valor p. Para obter o p-valor exato, use o software estatístico. No entanto, podemos encontrar uma aproximação aproximada do valor p, examinando as outras entradas na tabela F para (9, 25) graus de liberdade: o valor F é 5.991, portanto o valor p deve ser inferior a 0,005 . Verifique o valor da estatística F para o Exemplo de Hamster. Os valores R 2 e R 2 ajustados Para regressão linear simples, R 2 é o quadrado da correlação de amostra r xy. Para regressão linear múltipla com interceptação (que inclui regressão linear simples), é definida como r 2 SSM SST. Em ambos os casos, R 2 indica a proporção de variação na variável y que é devido à variação nas variáveis ​​x. Muitos pesquisadores preferem o R 2 valor R 2 ajustado, o que é penalizado por ter um grande número de parâmetros no modelo: R 2 1 - (1 - R 2) (n - 1) (n - p) Aqui derivação de R 2. R 2 é definido como 1 - SSESST ou 1 - R 2 SSESST. Para levar em consideração o número de parâmetros de regressão p, defina o valor ajustado de R-quadrado como 1 - R 2 MSEMST, onde MSE SSEDFE SSE (n - p) e MST SSTDFT SST (n - 1). Assim, SSE (n - p) SST (n - 1) (SSESST) (n - 1) (n - p) 1 - (SSESST) (n - 1) (n - p) 1 - (1 - R 2) (N-1) (n-p) Problema de prática: um modelo de regressão possui 9 variáveis ​​independentes, 47 observações e R 2 0.879.Ans: p 10 e n 47. R 2 1 - (1 - R 2) (n - 1) (n - p) 1 - (1 - 0.879) (47 - 1) (47 - 10) 0.8496.Stata: Análise de dados e software estatístico Kristin MacDonald, StataCorp Os comandos de estimativa fornecem no teste ou no teste z para a hipótese nula de que Um coeficiente é igual a zero. O comando de teste pode realizar testes de Wald para hipóteses lineares simples e compostas nos parâmetros, mas esses testes de Wald também se limitam a testes de igualdade. Testes T unilares Para realizar testes unilaterais, você pode primeiro executar o teste de Wald de dois lados correspondente. Então você pode usar os resultados para calcular a estatística de teste e p-valor para o teste unilateral. Letrsquos diz que você executa a seguinte regressão: se você deseja testar o coeficiente de peso. Peso beta. É negativo (ou positivo), você pode começar realizando o teste de Wald para a hipótese nula de que este coeficiente é igual a zero. O teste Wald apresentado aqui é um teste F com 1 grau de liberdade numerador e 71 graus de liberdade do denominador. A distribuição Studentrsquos t está diretamente relacionada à distribuição F em que o quadrado da distribuição Studentrsquos t com d graus de liberdade é equivalente à distribuição F com 1 grau de liberdade do numerador e graus de liberdade do denominador. Enquanto o teste F tiver 1 grau de liberdade do numerador, a raiz quadrada da estatística F é o valor absoluto da estatística t para o teste unilateral. Para determinar se esta estatística t é positiva ou negativa, você precisa determinar se o coeficiente ajustado é positivo ou negativo. Para fazer isso, você pode usar a função sign (). Em seguida, usando a função ttail () juntamente com os resultados retornados do comando de teste, você pode calcular os valores de p para os testes de um lado da seguinte maneira: No caso especial em que você está interessado em testar se um coeficiente é Maior que, menor ou igual a zero, você pode calcular os valores de p diretamente da saída de regressão. Quando o coeficiente estimado é positivo, como para o peso. Você pode fazê-lo da seguinte maneira: p-valor 0,008 (dado na saída de regressão) p-valor 0,5672 0,284 Por outro lado, se você deseja realizar um teste como H 0. Peso beta lt 1, você não pode calcular o valor p diretamente dos resultados de regressão. Aqui você teria que fazer o teste de Wald primeiro. Testes unilaterais z Na saída para determinados comandos de estimativa, você encontrará que as estatísticas z são relatadas em vez de t estatísticas. Nesses casos, quando você usa o comando de teste, você receberá um teste de Qui-quadrado em vez de um teste F. A relação entre a distribuição normal padrão e a distribuição do qui-quadrado é semelhante à relação entre a distribuição de Studentrsquos t e a distribuição F. De fato, a raiz quadrada da distribuição de qui-quadrado com 1 grau de liberdade é a distribuição normal padrão. Portanto, os testes z de um lado podem ser realizados de forma semelhante aos testes t unilaterais. Por exemplo, Aqui o comando de teste retorna r (chi2). Que pode ser usado juntamente com a função normal () para calcular os valores de p apropriados. Finalmente, se você quer realizar um teste de desigualdade para dois de seus coeficientes, como H 0. Beta idade gt beta grau. Você primeiro executaria o seguinte teste de Wald: então, calcule o valor de p apropriado: novamente, essa abordagem (realizando um teste de Wald e usando os resultados para calcular o valor de p para um teste de um verso) é apropriada apenas quando o Wald F A estatística possui 1 grau de liberdade no numerador ou a estatística de Wald Chi-quadrado tem 1 grau de liberdade. As relações de distribuição discutidas acima não são válidas se esses graus de liberdade forem maiores que 1.

No comments:

Post a Comment