Линейная регрессия


Что такое линейная регрессия?

Линейная регрессия — это алгоритм предиктивного анализа. Это статистический метод, который определяет корреляцию между зависимыми и независимыми переменными. Этот тип распределения образует линию и поэтому называется линейной регрессией. Это один из самых распространенных видов прогнозного анализа.

Искусственный интеллект поможет тебе заработать!

Подписывайся на канал "Виртуальный Каппер" и получай точные и бесплатные прогнозы на спорт от искусственного интеллекта.

Он используется для прогнозирования значения зависимой переменной, когда независимая переменная известна. График регрессии — это диаграмма рассеяния, отображающая расположение набора данных; х и у – переменные. Ближайшие точки данных, представляющие линейный наклон, образуют линию регрессии. Таким образом, построение и анализ линии регрессии на графике регрессии называется линейной регрессией.

Оглавление

Ключевые выводы

  • Линейная регрессия — это статистическая модель, которая используется для определения интенсивности взаимосвязи между двумя или более переменными. Одна зависимая переменная зависит от изменений, происходящих в независимых переменных.
  • Они подразделяются на два подтипа — простая и множественная регрессия.
  • Достоверность регрессии зависит от таких предположений, как линейность, гомоскедастичность, нормальность, мультиколлинеарность и независимость.
  • В формуле «Y» — это зависимая переменная или переменная результата, «a» — точка пересечения с осью y, «b» — наклон линии регрессии, а «ɛ» — член ошибки:
    Y = а + bX + ε

Объяснение линейной регрессии

Линейная регрессия — это модель, определяющая взаимосвязь между зависимой переменной. Зависимая переменная. Зависимая переменная — это переменная, значение которой изменяется в ответ на изменение значения независимой переменной. Подробнее «y» и независимой переменной «x». Это явление широко применяется в машинном обучении и статистике.

Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)

Он применяется к сценариям, в которых изменение значения одной конкретной переменной существенно зависит от изменения значения второй переменной. Здесь зависимая переменная также называется выходной переменной. Зависимая переменная изменяется в зависимости от изменения независимой переменной.

Предположения

Прежде чем применять модель линейной регрессии к какой-либо проблеме, аналитику необходимо принять во внимание следующие допущения:

  1. Линейность: Должна быть линейная зависимость между зависимой и независимой переменными. Это можно изобразить с помощью диаграммы рассеяния для переменных x и y.
  2. гомоскедастичность: дисперсия или остаток между зависимой и независимой переменными также должны быть одинаковыми по всей линии регрессии независимо от значений x и y. Аналитики могут сделать подогнанное значение Vs. остаточный график для проверки этого предположения.
  3. Нормальность: нормальное распределение значений x и y имеет решающее значение. Остатки должны быть многомерными нормальными, и их можно определить, создав график QQ или гистограмму.
  4. Независимость: В таком анализе наблюдения не должны иметь автокорреляции. Чтобы обеспечить справедливые результаты, последовательные остатки должны быть независимы друг от друга. Чтобы проверить это предположение, аналитики используют тест Дарбина-Уотсона.
  5. Нет мультиколлинеарности: Чрезмерная корреляция между независимыми переменными может ввести анализ в заблуждение. Следовательно, данные не должны быть мультиколлинеарными. Чтобы избежать этой проблемы, следует исключить переменные с высокой инфляцией дисперсии (одна переменная существенно влияет на другую).

Часто задаваемые вопросы (FAQ)

Какова цель простой линейной регрессии?

Он направлен на определение значения конкретной переменной (зависимой переменной) с помощью известной независимой переменной. Кроме того, он анализирует силу связи между двумя переменными, нанося ее на график регрессии.

Как работает линейная регрессия?

Он определяет ближайшие точки набора данных, которые представляют собой линейный шаблон. он применяется к сценариям, в которых изменение значения одной конкретной переменной существенно зависит от изменения значения второй переменной.

Что такое r в квадрате в линейной регрессии?

R в квадрате или R2 — это показатель степени отклонения зависимой переменной от независимой. Регрессионная модель считается достоверной, когда R2 больше 0,95.

Как найти линейную регрессию?

Он идентифицирует линейный образец взаимосвязи между точками данных — при построении на графике регрессии. Для этого аналитики используют разные модели — простую, множественную и многомерную регрессию.

Эта статья была руководством по линейной регрессии и определению. Мы изучаем простые и множественные модели линейной регрессии, а также формулы, расчеты и предположения. Вы можете узнать больше о бухгалтерском учете из следующих статей –

  • Множественная линейная регрессияМножественная линейная регрессияМножественные модели линейной регрессии — это тип модели регрессии, который имеет дело с одной зависимой переменной и несколькими независимыми переменными.Подробнее
  • Нелинейная регрессияНелинейная регрессияНелинейная регрессия относится к регрессионному анализу, в котором модель регрессии отображает нелинейную связь между зависимой переменной и независимыми переменными.Подробнее
  • Регрессия методом наименьших квадратовРегрессия методом наименьших квадратовКвадратный корень в VBA представляет собой математическую/триггерную функцию Excel, которая возвращает квадратный корень из введенного числа. Для этой функции квадратного корня используется терминология SQRT. Например, с помощью этой функции VBA пользователь может определить квадратный корень из 70 как 8,366602.Подробнее

Программы для Windows, мобильные приложения, игры - ВСЁ БЕСПЛАТНО, в нашем закрытом телеграмм канале - Подписывайтесь:)

Похожие записи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *