УЗНАЙ ЦЕНУ

(pdf, doc, docx, rtf, zip, rar, bmp, jpeg) не более 4-х файлов (макс. размер 15 Мб)


↑ вверх
Тема/ВариантМетод наименьших квадратов (МНК)
ПредметСтатистика
Тип работыконтрольная работа
Объем работы20
Дата поступления12.12.2012
690 ₽

Содержание

Содержание: Введение 3 1. Оценка параметров классической регрессионной модели методом наименьших квадратов 4 2. Ковариационная матрица и ее выборочная оценка 8 3. Теорема Гаусса–Маркова 11 4. Обобщенный (доступный) метод наименьших квадратов 15 Заключение 18 Список литературы 20

Введение

Введение Экономические явления, как правило, определяются боль-шим числом одновременно и совокупно действующих факторов. В связи с этим часто возникает задача исследования зависимости од-ной зависимой переменной Y от нескольких объясняющих перемен-ных Х1, Х2,..., Хn. Эта задача решается с помощью множественного регрессионного анализа. Обозначим i-е наблюдение зависимой переменной уi, а объяс-няющих переменных – xi1, хi2,..., хiр. Тогда модель множественной линейной регрессии можно представить в виде: уi = ?0 + ?1xi1 + ?2хi2 + … + ?pxip + ?i, где i = 1,2,…, n; удовлетворяет приведенным выше предпосылкам: • математического ожидания возмущения: М(?i) = 0 • постоянности дисперсии возмущения ?i для любого i: D(?i) = ?2. • Возмущения ?i и ?j (или переменные уi и yj) не коррелированны: M(?i?j)=0 (i ?j). Данная модель, в которой зависимая переменная уi, возмуще-ния ?i, и объясняющие переменные хi1, xi2,..., хiр должна удовлетво-рять приведенным выше предпосылкам регрессионного анализа, носит название классической нормальной линейной моделью мно-жественной регрессии (Classic Normal Linear Multiple Regression model). Включение в регрессионную модель новых объясняющих пе-ременных усложняет получаемые формулы и вычисления. Это при-водит к целесообразности использования матричных обозначений. Матричное описание регрессии облегчает как теоретические кон-цепции анализа и необходимые расчетные процедуры. Если ввести обозначения: Y= (y1 y2 … уn)' – транспонирован-ная матрица-столбец, или вектор, значений зависимой переменной размера n. Тогда в матричной форме модель примет вид: Y= X? + ? Оценкой этой модели по выборке является уравнение, которая носит название «классическая регрессионная модель»: Y= Xb + е Целью и задачей данной работы является анализ методом наименьших квадратов классической регрессионной модели. 1. Оценка параметров классической регрессионной модели методом наименьших квадратов Для оценки вектора неизвестных параметров р применим ме-тод наименьших квадратов. Так как произведение транспонирован-ной матрицы е' на саму матрицу е: ee' = (e1, e2, …, en) = (1) то условие минимизации остаточной суммы квадратов запишется в виде:

Литература

Список литературы 1. Айвазян С.А., Мхитарян B.C. Прикладная статистика и основы эконометрики – М.: ЮНИТИ, 1998 2. Бугров Я.С., Никольский С.М. Элементы линейной алгебры и аналитической геометрии – Ростов-н-Д.: Феникс, 1997 3. Джонстон Дж. Эконометрические методы: Пер. с англ. — М.: Финансы и статистика, 1997 4. Доугерти К. Введение в эконометрику: Пер. с англ. — М.: Инфра-М, 1997 5. Дубров А.М., Мхитарян B.C., Трошин Л.И. Многомерные статистические методы. – М.: Финансы и статистика, 1998. 6. Кремер Н.Ш., Путко Б.А. Эконометрика – М., ЮНИТИ, 2002'
Уточнение информации

+7 913 789-74-90
info@zauchka.ru
группа вконтакте