Если
матрица
ковариаций
ошибок
не
является
диагональной,
то
говорят
об
ав-
токорреляции
ошибок.
Обычно
при
этом
предполагают,
что
наблюдения
однород-
ны
по
дисперсии,
и
их
последовательность
имеет
определенный
смысл
и
жестко
фиксирована.
Как
правило,
такая
ситуация
имеет
место,
если
наблюдения
про-
водятся
в
последовательные
моменты
времени.
В
этом
случае
можно
говорить
о
зависимостях
ошибок
по
наблюдениям,
отстоящим
друг
от
друга
на
1,
2,
3
и
т.д.
момента
времени.
Обычно
рассматривается
частный
случай
автокорреляции,
когда
коэффициенты
ковариации
ошибок
зависят
только
от
расстояния
во
времени
меж-
ду
наблюдениями;
тогда
возникает
матрица
ковариаций,
в
которой
все
элементы
каждой
диагонали
(не
только
главной)
одинаковы1.
Поскольку
действие
причин,
обуславливающих
возникновение
ошибок,
доста-
точно
устойчиво
во
времени,
автокорреляции
ошибок,
как
правило,
положительны.
Это
ведет
к
тому,
что
значения
остаточной
дисперсии,
полученные
по
стандартным
(«штатным»)
формулам,
оказываются
ниже
их
действительных
значений.
Что,
как
отмечалось
и
в
предыдущем
пункте,
чревато
ошибочными
выводами
о
качестве
получаемых
моделей.
Это
утверждение
иллюстрируется
рисунком
8.4
(n
=
1).
На
этом
рисунке:
a
—
линия
истинной
регрессии.
Если
в
первый
момент
времени
истинная
ошибка
отрицательна,
то
в
силу
положительной
автокорреляции
ошибок
все
облако
наблю-
дений
сместится
вниз,
и
линия
оцененной
регрессии
займет
положение
b.
Если
в
первый
момент
времени
истинная
ошибка
положительна,
то
по
тем
же
причи-
нам
линия
оцененной
регрессии
сместится
вверх
и
займет
положение
c.
Поскольку
1
В
теории
временных
рядов
это
называется
слабой
стационарностью.
x c
a
b
время
Рис.
8.4
266 Глава
8.
Нарушение
гипотез
основной
линейной
модели
ошибки
случайны
и
в
первый
момент
времени
они
примерно
с
равной
вероятно-
стью
могут
оказаться
положительными
или
отрицательными,
то
становится
ясно,
насколько
увеличивается
разброс
оценок
регрессии
вокруг
истинных
по
сравнению
с
ситуацией
без
(положительной)
автокорреляции
ошибок.
Типичный
случай
автокорреляции
ошибок,
рассматриваемый
в
классической
эконометрии,
—
это
линейная
авторегрессия
ошибок
первого
порядка
AR(1):
εi
=
ρεi−1
+
ηi,
где
η
—
остатки,
удовлетворяющие
обычным
гипотезам;
ρ
—
коэффициент
авторегрессии
первого
порядка.
Коэффициент
ρ
вляется
также
коэффициентом
автокорреляции
(первого
по-
рядка).
Действительно,
по
определению,
коэффициент
авторегрессии
равен
(как
МНК-
оценка):
cov(εi
,
εi−1)
ρ
= var(ε
,
i−1)
но,
в
силу
гомоскедастичности,
var(εi−1)
=
,var(εi)var(εi−1)
и,
следовательно,
ρ,
также
по
определению,
является
коэффициентом
автокорреляции.
Если
ρ
=
0,
то
εi
=
ηi
и
получаем
«штатную»
ситуацию.
Таким
образом,
проверку
того,
что
автокорреляция
отсутствует,
можно
проводить
как
проверку
нулевой
гипотезы
H0:
ρ
=
0
для
процесса
авторегрессии
1-го
порядка
в
ошибках.
Для
проверки
этой
гипотезы
можно
использовать
критерий
Дарбина—
Уотсона
или
DW—критерий.
Проверяется
нулевая
гипотеза
о
том,
что
автокорре-
ляция
ошибок
первого
порядка
отсутствует.
(При
автокорреляции
второго
и
более
высоких
порядков
его
мощность
может
быть
мала,
и
применение
данного
критерия
становится
ненадежным.)
Пусть
была
оценена
модель
регрессии
и
найдены
остатки
ei,
i
=
1,
.
.
.
,
N
.
Значение
статистики
Дарбина—Уотсона
(отношения
фон
Неймана),
или
DW-ста-
тистики,
рассчитывается
следующим
образом:
N
2
(ei
−
ei−1)
dc
=
i=2
N
e
2
i
. (8.3)
i=1
Оно
лежит
в
интервале
от
0
до
4,
в
случае
отсутствия
автокорреляции
ошибок
приблизительно
равно
2,
при
положительной
автокорреляции
смещается
в
мень-
8.3.
Автокорреляция
ошибок 267
0 2
dL dU
4-dU
4
4-dL
Рис.
8.5
шую
сторону,
при
отрицательной
—
в
большую
сторону.
Эти
факты
подтвержда-
ются
тем,
что
при
больших
N
справедливо
следующее
соотношение:
dc
≈
2(1
−
r), (8.4)
где
r
—
оценка
коэффициента
авторегрессии.
Минимального
значения
величина
dc
достигает,
если
коэффициент
авторегрессии
равен
+1.
В
этом
случае
ei
=
e,
i
=
1,
.
.
.
,
N
,
и
dc
=
0.
Если
коэффициент
авторегрессии
равен
−1
и
ei
=
(−1)ie,
i
=
1,
.
.
.
,
N
,
то
величина
dc
достигает
значения
4
N
−
1
N
(можно
достичь
и
более
высокого
значения
подбором
остатков),
которое
с
ростом
N
стремится
к
4.
Формула
(8.4)
следует
непосредственно
из
(8.3)
после
элементарных
преобразований:
N N
e
2
i
ei−1ei
N
e
2
i−1
dc
=
i=2
−
2
i=2 +
i=2 ,
N
e
2
i
i=1
N
e
2
i
i=1
N
e
2
i
i=1
поскольку
первое
и
третье
слагаемые
при
больших
N
близки
к
единице,
а
второе
слагаемое
является
оценкой
коэффициента
автокорреляции
(умноженной
на
−2).
Известно
распределение
величины
d,
если
ρ
=
0
(это
распределение
близко
к
нормальному),
но
параметры
этого
распределения
зависят
не
только
от
N
и
n,
как
для
t—
и
F
-статистик
при
нулевых
гипотезах.
Положение
«колокола»
функции
плотности
распределения
этой
величины
зависит
от
характера
Z
.
Тем
не
менее,
Дарбин
и
Уотсон
показали,
что
это
положение
имеет
две
крайние
позиции
(рис.
8.5).
Поэтому
существует
по
два
значения
для
каждого
(двустороннего)
квантиля,
соответствующего
определенным
N
и
n:
его
нижняя
dL
и
верхняя
dU
границы.
Нулевая
гипотеза
H0:
ρ
=
0
принимается,
если
dU
™
dc
™
4
−
dU
;
она
отвергается
в
пользу
гипотезы
о
положительной
автокорреляции,
если
dc
<
dL
,
и
в
пользу
268
Глава
8.
Нарушение
гипотез
основной
линейной
модели
гипотезы
об
отрицательной
автокорреляции,
если
dc
>
4
−
dL
.
Если
dL
™
dc
<
dU
или
4−dU
<
dc
™
4−dL
,
вопрос
остается
открытым
(это
—
зона
неопределенности
DW-критерия).
Пусть
нулевая
гипотеза
отвергнута.
Тогда
необходимо
дать
оценку
матрицы
Ω.
Оценка
r
параметра
авторегрессии
ρ
может
определяться
из
приближенного
равенства,
следующего
из
(8.4):
dc
r
≈
1
−
2
,
или
рассчитываться
непосредственно
из
регрессии
e
на
него
самого
со
сдвигом
на
одно
наблюдение
с
принятием
«круговой»
гипотезы,
которая
заключается
в
том,
что
eN
+1
=
e1.
Оценкой
матрицы
Ω
является
2
1 r r
··· r
N
−1
r 1 r ··· rN
−2
1
r
2
1
−
r2
r 1 ··· r
−
N
3
,
.
..
...
...
.
.
.
..
.
rN
−1 rN
−2 rN
−3 ··· 1
а
матрица
D
преобразований
в
пространстве
наблюдений
равна
√
1
−
r2 0 0 ··· 0
−r 1 0 ··· 0
0 −r 1 ··· 0
.
.
...
.
.
. ..
...
.
.
.
0 0 0 ··· 1
Для
преобразования
в
пространстве
наблюдений,
называемом
в
данном
слу-
чае
авторегрессионным,
используют
обычно
указанную
матрицу
без
1-й
строки,
что
ведет
к
сокращению
количества
наблюдений
на
одно.
В
результате
такого
пре-
образования
из
каждого
наблюдения,
начиная
со
2-го,
вычитается
предыдущее,
умноженное
на
r,
теоретическими
остатками
становятся
η
,
которые,
по
предпо-
ложению,
удовлетворяют
гипотезе
g4.
8.3.
Автокорреляция
ошибок 269
После
этого
преобразования
снова
оцениваются
параметры
регрессии.
Если
новое
значение
DW-статистики
неудовлетворительно,
то
можно
провести
следую-
щее
авторегрессионное
преобразование.
Обобщает
процедуру
последовательных
авторегрессионных
преобразований
метод
Кочрена—Оркатта,
который
заключается
в
следующем.
Для
одновременной
оценки
r,
a
и
b
используется
критерий
ОМНК
(в
обозна-
чениях
исходной
формы
уравнения
регрессии):
1
N
i
− i−1
− i
− i−1 − −
((x rx ) (z rz )a (1 r)b)2
→
min,
N
i=2
где
zi
—
n-вектор-строка
значений
независимых
факторов
в
i-м
наблюдении
(i-строка
матрицы
Z
).
Поскольку
производные
функционала
по
искомым
величинам
нелинейны
от-
носительно
них,
применяется
итеративная
процедура,
на
каждом
шаге
которой
сначала
оцениваются
a
и
b
при
фиксированном
значении
r
предыдущего
шага
(на
первом
шаге
обычно
r
=
0),
а
затем
—
r
при
полученных
значениях
a
и
b.
Процесс,
как
правило,
сходится.
Как
и
в
случае
гетероскедастичности,
можно
не
использовать
модифицированные
методы
оценивания
(тем
более,
что
точный
вид
автокорреляции
может
быть
неиз-
вестен),
а
использовать
обычный
МНК
и
скорректировать
оценку
ковариационной
матрицы
параметров.
Наиболее
часто
используемая
оценка
Ньюи—Уэста
(устой-
чивая
к
гетероскедастичности
и
автокорреляции)
имеет
следующий
вид:
(ZrZ)−1
Q
(ZrZ)−1
,
где
N L N
Q
=
e2
+
λk
eiei
k
(z
zr
+
zi
k
zr),
i
i=1
k=1
i=k+1
− i
i−k −
i
а
λk
—
понижающие
коэффициенты,
которые
Ньюи
и
Уэст
предложили
рассчи-
k .
При
k
>
L
понижающие
коэффициенты
тывать
по
формуле
λk
=
1
−
L
+1
становятся
равными
нулю,
т.е.
более
дальние
корреляции
не
учитываются
Обоснование
этой
оценки
достаточно
сложно2.
Заметим
только,
что
если
заменить
попарные
произведения
остатков
соответствующими
ковариациями
и
убрать
пони-
жающие
коэффициенты,
то
получится
формула
ковариационной
матрицы
оценок
МНК.
Приведенная
оценка
зависит
от
выбора
параметра
отсечения
L.
В
настоящее
вре-
мя
не
существует
простых
теоретически
обоснованных
методов
для
такого
выбора.
На
практике
можно
ориентироваться
на
грубое
правило
L
=
.
4
T
100
2/9
.
.
2
Оно
связано
с
оценкой
спектральной
плотности
для
многомерного
временного
ряда.
270 Глава
8.
Нарушение
гипотез
основной
линейной
модели
Соседние файлы в папке Диплом
- #
24.03.201581 б11.~lock.NonParametrics1.pdf#
- #
24.03.201581 б14.~lock.suslov_ibragimov_ekonometrika.pdf#
- #
- #
- #
- #
- #
- #
Assessment |
Biopsychology |
Comparative |
Cognitive |
Developmental |
Language |
Individual differences |
Personality |
Philosophy |
Social |
Methods |
Statistics |
Clinical |
Educational |
Industrial |
Professional items |
World psychology |
Statistics:
Scientific method ·
Research methods ·
Experimental design ·
Undergraduate statistics courses ·
Statistical tests ·
Game theory ·
Decision theory
A plot showing 100 random numbers with a «hidden» sine function, and an autocorrelation of the series on the bottom.
Autocorrelation is a mathematical tool used frequently in signal processing for analysing functions or series of values, such as time domain signals. Informally, it is a measure of how well a signal matches a time-shifted version of itself, as a function of the amount of time shift. More precisely, it is the cross-correlation of a signal with itself. Autocorrelation is useful for finding repeating patterns in a signal, such as determining the presence of a periodic signal which has been buried under noise, or identifying the missing fundamental frequency in a signal implied by its harmonic frequencies.
Definitions
Different definitions of autocorrelation are in use depending on the field of study which is being considered and not all of them are equivalent. In some fields, the term is used interchangeably with autocovariance.
Statistics
In statistics, the autocorrelation function (ACF) of a random process describes the correlation between the process at different points in time. Let Xt be the value of the process at time t (where t may be an integer for a
discrete-time process or a real number for a continuous-time process).
If Xt has mean μ and variance σ2 then the definition of the ACF is
where E is the expected value operator. Note that this expression is not well-defined for all time series or processes, since the variance σ2 may be zero (for a constant process) or infinite. If the function R is well-defined its value must lie in the range [−1, 1], with 1 indicating perfect correlation and −1 indicating perfect anti-correlation.
If Xt is second-order stationary then the ACF depends only on the difference between t and s and can be expressed as a function of a single variable. This gives the more familiar form
where k is the lag, | t − s |. It is common practice in many disciplines to drop the normalization by σ2 and use the term autocorrelation interchangeably with autocovariance.
For a discrete time series of length n {X1, X2, … Xn} with known mean and variance, an estimate of the autocorrelation may be obtained as
for any positive integer k < n.
If the true mean and variance of the process are not known then μ and σ2 may be replaced by the standard formulae for sample mean and sample variance, although this leads to a biased estimator.[1]
Signal processing
In signal processing, the above definition is often used without the normalization, that is, without subtracting the mean and dividing by the variance. When the autocorrelation function is normalized by mean and variance, it is sometimes referred to as the autocorrelation coefficient.[2]
Given a signal f(t), the continuous autocorrelation Rff(τ) is most often defined as the continuous cross-correlation integral of f(t) with itself, at lag τ.
where represents the complex conjugate and
represents convolution. For a real function,
.
The discrete autocorrelation R at lag j for a discrete signal xn is
The above definitions work for signals that are square integrable, or square summable, that is, of finite energy. Signals that «last forever» are treated instead as random processes, in which case different definitions are needed, based on expected values. For wide-sense-stationary random processes, the autocorrelations are defined as
For processes that are not stationary, these will also be functions of t, or n.
For processes that are also ergodic, the expectation can be replaced by the limit of a time average. The autocorrelation of an ergodic process is sometimes defined as or equated to[2]
These definitions have the advantage that they give sensible well-defined single-parameter results for periodic functions, even when those functions are not the output of stationary ergodic processes.
Alternatively, signals that last forever can be treated by a short-time autocorrelation function analysis, using finite time integrals. (See short-time Fourier transform for a related process.)
Multi-dimensional autocorrelation is defined similarly. For example, in three dimensions the autocorrelation of a square-summable discrete signal would be
When mean values are subtracted from signals before computing an autocorrelation function, the resulting function is usually called an auto-covariance function.
Properties
In the following, we will describe properties of one-dimensional autocorrelations only, since most properties are easily transferred from the one-dimensional case to the multi-dimensional cases.
- A fundamental property of the autocorrelation is symmetry, R(i) = R(−i), which is easy to prove from the definition. In the continuous case, the autocorrelation is an even function
- when f is a real function and the autocorrelation is a Hermitian function
- when f is a complex function.
- The continuous autocorrelation function reaches its peak at the origin, where it takes a real value, i.e. for any delay τ,
. This is a consequence of the Cauchy–Schwarz inequality. The same result holds in the discrete case.
- The autocorrelation of a periodic function is, itself, periodic with the very same period.
- The autocorrelation of the sum of two completely uncorrelated functions (the cross-correlation is zero for all τ) is the sum of the autocorrelations of each function separately.
- Since autocorrelation is a specific type of cross-correlation, it maintains all the properties of cross-correlation.
- The autocorrelation of a white noise signal will have a strong peak (represented by a Dirac delta function) at τ = 0 and will be absolutely 0 for all other τ. This shows that a sampled instance of a white noise signal is not statistically correlated to a sample instance of the same white noise signal at another time.
- The Wiener–Khinchin theorem relates the autocorrelation function to the power spectral density via the Fourier transform:
- For real-valued functions, the symmetric autocorrelation function has a real symmetric transform, so the Wiener–Khinchin theorem can be re-expressed in terms of real cosines only:
Autocorrelation in regression analysis
In regression analysis using time series data, autocorrelation of the residuals («error terms», in econometrics) is a problem, and leads to an upward bias in estimates of the statistical significance of coefficient estimates, such as the t statistic. The traditional test for the presence of first-order autocorrelation is the Durbin-Watson statistic or, if the explanatory variables include a lagged dependent variable, Durbin’s h statistic. A more flexible test, covering
autocorrelation of higher orders and applicable whether or not the regressors include lags of the dependent variable, is the Breusch-Godfrey test. This involves an auxiliary regression, wherein the residuals obtained from estimating the model of interest are regressed on (a) the original regressors and (b) k lags of the residuals, where k is the order of the test. The simplest version of the test statistic from this
auxiliary regression is TR2, where T is the sample size and R2 is the coefficient of determination. Under the null hypothesis of no autocorrelation, this statistic is
asymptotically distributed as Χ2 with k degrees of freedom.
Responses to autocorrelation include differencing of the data and the use of lag structures in estimation.
Applications
- One application of autocorrelation is the measurement of optical spectra and the measurement of very-short-duration light pulses produced by lasers, both using optical autocorrelators.
- In optics, normalized autocorrelations and cross-correlations give the degree of coherence of an electromagnetic field.
- In signal processing, autocorrelation can give information about repeating events like musical beats or pulsar frequencies, though it cannot tell the position in time of the beat.
See also
- Cross-correlation
- Optical autocorrelation
External links
- Eric W. Weisstein, Autocorrelation at MathWorld.
- Autocorrelation articles in Comp.DSP (DSP usenet group).
References
- ↑ Spectral analysis and time series, M.B. Priestley (London, New York : Academic Press, 1982)
- ↑ 2.0 2.1 Patrick F. Dunn, Measurement and Data Analysis for Engineering and Science, New York: McGraw–Hill, 2005 ISBN 0-07-282538-3 Cite error: Invalid
<ref>
tag; name «dunn» defined multiple times with different content
Assessment |
Biopsychology |
Comparative |
Cognitive |
Developmental |
Language |
Individual differences |
Personality |
Philosophy |
Social |
Methods |
Statistics |
Clinical |
Educational |
Industrial |
Professional items |
World psychology |
Statistics:
Scientific method ·
Research methods ·
Experimental design ·
Undergraduate statistics courses ·
Statistical tests ·
Game theory ·
Decision theory
A plot showing 100 random numbers with a «hidden» sine function, and an autocorrelation of the series on the bottom.
Autocorrelation is a mathematical tool used frequently in signal processing for analysing functions or series of values, such as time domain signals. Informally, it is a measure of how well a signal matches a time-shifted version of itself, as a function of the amount of time shift. More precisely, it is the cross-correlation of a signal with itself. Autocorrelation is useful for finding repeating patterns in a signal, such as determining the presence of a periodic signal which has been buried under noise, or identifying the missing fundamental frequency in a signal implied by its harmonic frequencies.
Definitions
Different definitions of autocorrelation are in use depending on the field of study which is being considered and not all of them are equivalent. In some fields, the term is used interchangeably with autocovariance.
Statistics
In statistics, the autocorrelation function (ACF) of a random process describes the correlation between the process at different points in time. Let Xt be the value of the process at time t (where t may be an integer for a
discrete-time process or a real number for a continuous-time process).
If Xt has mean μ and variance σ2 then the definition of the ACF is
where E is the expected value operator. Note that this expression is not well-defined for all time series or processes, since the variance σ2 may be zero (for a constant process) or infinite. If the function R is well-defined its value must lie in the range [−1, 1], with 1 indicating perfect correlation and −1 indicating perfect anti-correlation.
If Xt is second-order stationary then the ACF depends only on the difference between t and s and can be expressed as a function of a single variable. This gives the more familiar form
where k is the lag, | t − s |. It is common practice in many disciplines to drop the normalization by σ2 and use the term autocorrelation interchangeably with autocovariance.
For a discrete time series of length n {X1, X2, … Xn} with known mean and variance, an estimate of the autocorrelation may be obtained as
for any positive integer k < n.
If the true mean and variance of the process are not known then μ and σ2 may be replaced by the standard formulae for sample mean and sample variance, although this leads to a biased estimator.[1]
Signal processing
In signal processing, the above definition is often used without the normalization, that is, without subtracting the mean and dividing by the variance. When the autocorrelation function is normalized by mean and variance, it is sometimes referred to as the autocorrelation coefficient.[2]
Given a signal f(t), the continuous autocorrelation Rff(τ) is most often defined as the continuous cross-correlation integral of f(t) with itself, at lag τ.
where represents the complex conjugate and
represents convolution. For a real function,
.
The discrete autocorrelation R at lag j for a discrete signal xn is
The above definitions work for signals that are square integrable, or square summable, that is, of finite energy. Signals that «last forever» are treated instead as random processes, in which case different definitions are needed, based on expected values. For wide-sense-stationary random processes, the autocorrelations are defined as
For processes that are not stationary, these will also be functions of t, or n.
For processes that are also ergodic, the expectation can be replaced by the limit of a time average. The autocorrelation of an ergodic process is sometimes defined as or equated to[2]
These definitions have the advantage that they give sensible well-defined single-parameter results for periodic functions, even when those functions are not the output of stationary ergodic processes.
Alternatively, signals that last forever can be treated by a short-time autocorrelation function analysis, using finite time integrals. (See short-time Fourier transform for a related process.)
Multi-dimensional autocorrelation is defined similarly. For example, in three dimensions the autocorrelation of a square-summable discrete signal would be
When mean values are subtracted from signals before computing an autocorrelation function, the resulting function is usually called an auto-covariance function.
Properties
In the following, we will describe properties of one-dimensional autocorrelations only, since most properties are easily transferred from the one-dimensional case to the multi-dimensional cases.
- A fundamental property of the autocorrelation is symmetry, R(i) = R(−i), which is easy to prove from the definition. In the continuous case, the autocorrelation is an even function
- when f is a real function and the autocorrelation is a Hermitian function
- when f is a complex function.
- The continuous autocorrelation function reaches its peak at the origin, where it takes a real value, i.e. for any delay τ,
. This is a consequence of the Cauchy–Schwarz inequality. The same result holds in the discrete case.
- The autocorrelation of a periodic function is, itself, periodic with the very same period.
- The autocorrelation of the sum of two completely uncorrelated functions (the cross-correlation is zero for all τ) is the sum of the autocorrelations of each function separately.
- Since autocorrelation is a specific type of cross-correlation, it maintains all the properties of cross-correlation.
- The autocorrelation of a white noise signal will have a strong peak (represented by a Dirac delta function) at τ = 0 and will be absolutely 0 for all other τ. This shows that a sampled instance of a white noise signal is not statistically correlated to a sample instance of the same white noise signal at another time.
- The Wiener–Khinchin theorem relates the autocorrelation function to the power spectral density via the Fourier transform:
- For real-valued functions, the symmetric autocorrelation function has a real symmetric transform, so the Wiener–Khinchin theorem can be re-expressed in terms of real cosines only:
Autocorrelation in regression analysis
In regression analysis using time series data, autocorrelation of the residuals («error terms», in econometrics) is a problem, and leads to an upward bias in estimates of the statistical significance of coefficient estimates, such as the t statistic. The traditional test for the presence of first-order autocorrelation is the Durbin-Watson statistic or, if the explanatory variables include a lagged dependent variable, Durbin’s h statistic. A more flexible test, covering
autocorrelation of higher orders and applicable whether or not the regressors include lags of the dependent variable, is the Breusch-Godfrey test. This involves an auxiliary regression, wherein the residuals obtained from estimating the model of interest are regressed on (a) the original regressors and (b) k lags of the residuals, where k is the order of the test. The simplest version of the test statistic from this
auxiliary regression is TR2, where T is the sample size and R2 is the coefficient of determination. Under the null hypothesis of no autocorrelation, this statistic is
asymptotically distributed as Χ2 with k degrees of freedom.
Responses to autocorrelation include differencing of the data and the use of lag structures in estimation.
Applications
- One application of autocorrelation is the measurement of optical spectra and the measurement of very-short-duration light pulses produced by lasers, both using optical autocorrelators.
- In optics, normalized autocorrelations and cross-correlations give the degree of coherence of an electromagnetic field.
- In signal processing, autocorrelation can give information about repeating events like musical beats or pulsar frequencies, though it cannot tell the position in time of the beat.
See also
- Cross-correlation
- Optical autocorrelation
External links
- Eric W. Weisstein, Autocorrelation at MathWorld.
- Autocorrelation articles in Comp.DSP (DSP usenet group).
References
- ↑ Spectral analysis and time series, M.B. Priestley (London, New York : Academic Press, 1982)
- ↑ 2.0 2.1 Patrick F. Dunn, Measurement and Data Analysis for Engineering and Science, New York: McGraw–Hill, 2005 ISBN 0-07-282538-3 Cite error: Invalid
<ref>
tag; name «dunn» defined multiple times with different content