Экономика Ковалева Т.Ю. Практикум по теории статистики. Учебно-практическое пособие

Практикум по теории статистики. Учебно-практическое пособие

Возрастное ограничение: 12+
Жанр: Экономика
Издательство: Проспект
Дата размещения: 02.10.2013
ISBN: 9785392133055
Язык:
Объем текста: 515 стр.
Формат:
epub

Оглавление

Предисловие

Модуль 1. Основы методологии статистического исследования

Модуль 2. Характеристика множества

Модуль 3. Статистическое изучение взаимосвязей социально-экономических явлений и процессов

Модуль 4. Статистическое изучение динамики социально-экономических явлений и процессов. Временные ряды: оценка изменений во времени



Для бесплатного чтения доступна только часть главы! Для чтения полной версии необходимо приобрести книгу



МОДУЛЬ 3. СТАТИСТИЧЕСКОЕ ИЗУЧЕНИЕ ВЗАИМОСВЯЗЕЙ СОЦИАЛЬНО-ЭКОНОМИЧЕСКИХ ЯВЛЕНИЙ И ПРОЦЕССОВ


3.1. Корреляционно-регрессионный анализ


Методические указания


Очевидно, что многие социально-экономические процессы связаны между собой в большей или меньшей степени. Первым шагом при изучении зависимостей производится качественный анализ признаков, характеризующих явление или процесс. Целью этого этапа является поиск ответа на вопрос, существует ли между этими признаками какая-нибудь связь вообще. Несоблюдение этого правила может привести к курьезным результатам. Например, по данным статистики, в 30-х гг. XX в. в Англии была обнаружена тесная связь между числом установленных радиоточек и числом психических больных. Авторы исследования, конечно, отмечали, что такой результат всерьез воспринимать нельзя. Однако в шутку утверждали, что прослушивание радио ведет к росту психических заболеваний.


Следующим шагом необходимо раскрыть и измерить взаимную зависимость и взаимную обусловленность, т.е. количественно оценить, насколько вариация первичного признака, который называют факторным, обусловливает вариацию вторичного — результативного признака. Затем производятся представление выявленной связи в виде уравнения регрессии и качественная интерпретация полученных результатов.


«В каком случае правомерно принимать решения на основе анализа связи между признаками?» — найдите для себя ответ на этот вопрос.


Виды связей между признаками. Существующие между признаками связи принято классифицировать на функциональные (жестко детерминированные) и статистические (стохастически детерминированные).


Связь признака y с признаком х называется функциональной, если каждому возможному значению независимого признака х соответствует одно или несколько строго определенных значений зависимого признака y.


Функциональную связь можно представить уравнением:



где yi — результативный признак;


f (хi) — известная функция связи результативного и факторного признаков;


хi — факторный признак.


Методы изучения функциональных связей:


1) индексный метод;


2) балансовый метод.


Статистические балансовые модели представляют собой систему показателей, которая представляет собой равенство алгебраических сумм абсолютных величин:



С помощью балансового построения осуществляется контроль за движением ресурсов хозяйствующих субъектов. На основе балансовой модели возможно осуществление контроля за движением оборотных средств, взаимосвязями и пропорциями отдельных элементов этого процесса:


Остаток на начало + Поступление = Расход + Остаток на конец.


В этом случае очевидно, что поступление и расход должны находиться в определенном соответствии, при нарушении которого меняется удельный вес запасов на конец периода по отношению к величине запасов на начало периода. Сохранение пропорций между элементами этого баланса является основой контроля за устойчивостью процесса движения ресурсов.


Стохастическая связь — это связь между величинами, при которой одна из них, случайная величина у, реагирует на изменение другой величины х или других величин х1, х2, ..., хп (случайных или неслучайных) изменением закона распределения. Это объясняется тем, что результативный показатель, кроме зависимости от выделенных признаков-факторов, подвержен влиянию прочих неучтенных или случайных факторов, а также некоторых неизбежных ошибок измерения. Поскольку значения зависимой переменной подвержены случайному разбросу, они не могут быть предсказаны с достаточной точностью, а только указаны с определенной вероятностью.


Характерной особенностью стохастических связей является то, что они проявляются во всей совокупности, а не в каждой ее единице. При этом неизвестен ни полный перечень факторов, определяющих значение результативного признака, ни точный механизм функционирования и взаимодействия с результативным признаком. В таких связях всегда имеет место влияние случайного, а различные значения зависимой переменной являются результатом реализации случайной величины.


Модель стохастической связи может быть представлена уравнением:



где — расчетное значение результативного признака;


f (xi) — часть результативного признака, сформировавшаяся в результате действия учтенных известных факторных признаков (одного или множества), находящихся в стохастической связи с признаком;


εi — часть результативного признака, возникшая вследствие действия неконтролируемых или неучтенных факторов, а также измерения признаков, неизбежно сопровождающегося некоторыми случайными ошибками.


Проявление стохастических связей подвержено действию закона больших чисел: только в достаточно большом числе единиц индивидуальные особенности сглаживаются, случайности взаимопогашаются и зависимость, если она существенна, проявляется достаточно отчетливо.


В случае корреляционной связи среднее значение (математическое ожидание) случайной величины результативного признака у закономерно изменяется в зависимости от изменения другой величины х или других случайных величинх1, х2, ...,хп. Такая связь проявляется не в каждом отдельном случае, а во всей совокупности в целом, и только при достаточно большом количестве наблюдений становится очевидным, вызывает ли изменение значений случайного признака х изменение распределения средних величин случайного признака у . Корреляционная связь является частным случаем стохастической связи, которая является более широким понятием.


По степени тесноты связи различают количественные критерии оценки тесноты связи:


до |±0,3| — связь практически отсутствует;


|±0,3| -|±0,5| — связь между признаками слабая;


|±0,5| -|±0,7| — связь между признаками умеренная;


|±0,7| -1±1,0| — связь между признаками тесная (сильная).


В зависимости от направления действия связи могут быть прямыми и обратными. При прямой связи направление изменения результативного признака совпадает с направлением изменения признака-фактора, т.е. с ростом факторного признака увеличивается и результативный признак. В обратном случае — факторный признак растет, а результативный уменьшается, между рассматриваемыми величинами существует обратная связь.


По аналитическому выражению (форме) связи могут быть прямолинейными и криволинейными. При прямолинейной (линейной) связи с возрастанием значения факторного признака происходит непрерывное возрастание (или убывание) значений результативного признака. Математически такая связь представляется уравнением прямой, а графически — прямой линией. При криволинейных связях с возрастанием значения факторного признака возрастание (или убывание) результативного признака происходит неравномерно или же направление его изменения меняется на обратное. Геометрически такие связи представляются кривыми линиями (гиперболой, параболой и т.д.).


По количеству факторов, действующих на результативный признак, связи различают однофакторные и многофакторные. Однофакторные (простые) связи обычно называются парными (так как рассматривается пара признаков). В случае многофакторной (множественной) связи имеют в виду, что все факторы действуют комплексно, т.е. одновременно и во взаимосвязи. С помощью множественной корреляции можно охватить весь комплекс факторных признаков и объективно отразить существующие множественные связи.


Методы выявления корреляционной связи между признаками


Методами выявления корреляционной связи между признаками являются следующие:


1) метод параллельных рядов;


2) табличный метод (корреляционная таблица);


3) метод аналитических группировок;


4) графический метод (поле корреляции);


5) корреляционный анализ;


6) метод взаимной сопряженности;


7) регрессионный анализ.


Статистическое исследование начинается с логического анализа сущности изучаемого явления и его причинно-следственных связей. В результате устанавливаются результативный показатель (у) и факторы (х1; х2; ...; хп), оказывающие на него влияние. Исследование завершается построением регрессионной модели зависимости и оценкой возможности ее практического использования для прогнозирования.


Простейшим методом выявления факта наличия связи является метод параллельных рядов, который заключается в сопоставлении значений факторного и соответствующих ему значений результативного признаков. Значения факторного признака должны быть при этом расположены в возрастающем (или убывающем) порядке. Параллельно записываются соответствующие значения результативного признака. Путем сопоставления расположенных таким образом рядов значений устанавливают факт наличия связи.


В тех случаях, когда возрастание факторного признака вызывает возрастание величины результативного признака, можно говорить, что связь между признаками носит характер прямой корреляционной зависимости. Если с ростом значений факторного признака величина результативного показателя снижается, то можно предполагать наличие обратной связи между признаками. Однако в случае соответствия одному значению факторного признака нескольких значений результативного показателя, а также при большом числе единиц, составляющих совокупность, восприятие параллельных рядов затруднено, в этом случае для установления факта наличия связи целесообразнее воспользоваться статистическими таблицами.


Построение корреляционной таблицы начинают с группировки значений факторного и результативного признаков. В корреляционной таблице факторный признак х , как правило, располагают в строках, а результативный признак у — в столбцах (графах) таблицы. Числа, расположенные на пересечении строк и столбцов таблицы, означают частоту повторения определенного сочетания х и у . При этом:


— среднее значение результативного признака j-й группы значений факторного признака;


fx — частота повторения данного варианта значения факторного признака во всей совокупности;


fy — частота повторения результативного признака во всей совокупности.


Корреляционная таблица позволяет сделать предположение о наличии или отсутствии связи, а также ее направлении. Если частоты корреляционной таблицы расположены по диагонали из левого верхнего угла в правый нижний угол (т.е. большим значениям факторного признака соответствуют большие значения результативного признака), то можно предположить наличие прямой корреляционной зависимости между признаками. Если частоты расположены по диагонали справа налево, то делается предположение о наличии обратной связи между признаками.


В случае когда все поля корреляционной таблицы будут заполнены, необходимо установить, где находится основная масса частот. Кроме того, чтобы сделать восприятие корреляционной таблицы более легким и в целях четкого выявления основной тенденции связи, можно для каждой строки рассчитать средние значения результативного признака, соответствующие определенному значению признака-фактора (каждая строка таблицы дает условное распределение у при определенном значении х). Увеличение средних значений результативного признака у с увеличением значений факторного признака х также свидетельствует о возможном наличии прямой корреляционной зависимости.


Сущность метода аналитической группировки заключается в том, что на первом этапе производится группировка единиц совокупности по величине признака-фактора, далее по каждой группе вычисляются средние значения результативного признака. Оценивая изменение средних значений результативного признака по группам, можно сделать вывод о наличии или отсутствии корреляционной зависимости между признаками. Другими словами, воздействие прочих неучтенных факторов носит случайный характер и при вычислении средней по группам взаимопогашаются, т.е. дают по каждой группе примерно один и тот же результат, а это означает, что различия в величине групповых средних будет вызвано только различиями в величине признака-фактора, положенного в основание группировки. Если бы связь между факторным и результативным признаками отсутствовала, то все групповые средние были бы приблизительно равны между собой. Оценка существенности расхождения групповых средних лежит в основе использования метода дисперсионного анализа для выявления наличия и оценки существенности связи. К недостаткам аналитической группировки можно отнести зависимость получаемых результатов от числа выделяемых групп и установленных границ интервалов.


Для предварительной оценки формы и направления связи можно использовать графический метод. Для этого на оси абсцисс откладываем значения факторного признака Х, а на оси ординат — значения результативного признака. На графике отмечаем точки с соответствующими координатами (Х; Y), полученный точечный график называется полем корреляции, по характеру расположения точек можно судить о направлении и силе связи. Если точки на поле расположены хаотично, то можно предположить, что связь между признаками отсутствует. Если они расположены вокруг некоторой линии, идущей от нижнего левого угла в верхний правый угол, то имеет место прямая зависимость между варьирующими признаками. Если точки расположены вокруг линии, идущей от верхнего левого угла в нижний правый угол, то существует обратная зависимость.


Если вместо индивидуальных значений результативного признака использовать его средние значения по группам, то количество точек на графике существенно сократится. Далее, соединив эти точки последовательными прямыми отрезками, получим эмпирическую линию регрессии. Если эмпирическая линия регрессии по своему виду приближается к прямой линии, то можно предположить наличие прямолинейной корреляционной зависимости между признаками. Если значения результативного признака изменяются неравномерно и эмпирическая линия регрессии приближается к какой-то кривой, то можно говорить о наличии криволинейной корреляционной связи.


Корреляционно-регрессионный анализ предполагает установление факта наличия направления и измерения тесноты связи (корреляционный анализ), а также определения аналитической формы связи (регрессионный анализ). Кроме того, сопоставляя показатели тесноты связи между признаками в различных условиях, можно оценить различия в ее проявлениях в конкретных обстоятельствах, а также выявить доминирующие факторы, определяющие уровень результативного признака.


Элементарной характеристикой степени тесноты связи является коэффициент Фехнера:



где na — количество совпадений знаков отклонений индивидуальных величин факторного и результативного признаков от их средней арифметической величины (например, «плюс» и «плюс», «минус» и «минус», «отсутствие отклонения» и «отсутствие отклонения»);


nb — количество несовпадений знаков отклонений индивидуальных значений изучаемых признаков от значения их средней арифметической.


Как видно из формулы, величина коэффициента Фехнера не зависит от величины отклонения факторного и результативного признаков от соответствующих средних величин, а значит, на его основе нельзя говорить о степени тесноты связи и о ее существенности. Коэффициент Фехнера целесообразно использовать только для установления факта наличия связи при небольшом объеме исходных данных. Он изменяется в пределах -1,0 ≤ Кф ≤ +1,0.


Для определения тесноты связи как между количественными, так и между качественными признаками, при условии, что значения этих признаков могут быть проранжированы по степени убывания или возрастания, используется коэффициент корреляции рангов Спирмена:



где di — разность между величинами рангов признака-фактора и результативного признака;


n — число показателей (рангов) изучаемого ряда.


Он варьируется в пределах от —1,0 до +1,0.


В случае больших совокупностей значимость коэффициента корреляции рангов Спирмена проверяется на основе t-критерия Стьюдента по формуле: при этом значение коэффициента корреляции рангов считается существенным, если tрасч > tтабл (α, k = n - 2) , tтабл — по нормированной функции Лапласа.


Если ранговый коэффициент исчисляется на основе небольшого объема исходной информации, то для проверки его существенности используют значения, представленные в таблице предельных значений коэффициента корреляции рангов Спирмена при условии верности нулевой гипотезы об отсутствии корреляционной связи при заданном уровне значимости и определенном объеме выборочных данных (Приложение 10).


Если полученное значение р превышает критическую величину при заданном уровне значимости, то нулевая гипотеза может быть отвергнута, т.е. величина р не является результатом случайных совпадений рангов.


Ранговый коэффициент корреляции Кендалла (т) может быть использован для измерения взаимосвязи между качественными и количественными признаками, характеризующими однородные объекты и ранжированные по одному принципу.



где S = P + Q.


Для вычисления рангового коэффициента корреляции Кендалла необходимо:


1) упорядочить ряд рангов переменной x, приведя его к ряду натуральных чисел, далее выстраивают последовательность соответствующих значений рангов переменной y;


2) для нахождения суммы S находят два слагаемых:


— Р — необходимо установить, сколько чисел, находящихся справа от каждого из элементов последовательности рангов переменной у , имеют величину ранга, превышающую ранг рассматриваемого значения. Суммируя полученные таким образом числа, получаем слагаемое Р, которое можно рассматривать как меру соответствия последовательности рангов переменной у последовательности рангов переменной х ;


— Q — сколько чисел, находящихся справа от каждого из членов последовательности рангов переменной y, имеют величину ранга меньше, чем рассматриваемое значение. Q характеризует степень несоответствия последовательности рангов переменной у последовательности рангов переменной x.


Коэффициент Кендалла изменяется в пределах от —1 до +1 и равен нулю при отсутствии связи между рядами рангов.


Существенность коэффициента корреляции рангов Кендалла проверяют при уровне значимости а по формуле



где ta — коэффициент, определяемый по таблице нормального распределения для выбранного уровня значимости а при больших п.


Когда невозможно установить ранговые различия нескольких смежных значений, т.е. отдельные значения признака имеют одинаковую количественную оценку, ранг всех этих значений принимается равным средней арифметической из соответствующих номеров значений, которые они принимают. Такие ранги называются связанными.


Если определяется теснота связи между к-м и l-м признаками, в рядах значений которых имеются соответственно q и g групп связанных рангов, то формула для расчета коэффициента корреляции рангов Спирмена примет вид:




Скорректированная формула для вычисления коэффициента корреляции рангов Кендалла при этих условиях будет иметь вид:



где


При достаточно большом числе наблюдений между коэффициентами корреляции рангов Спирмена и Кендалла существует следующее соотношение:



Для оценки степени тесноты связи между несколькими признаками (3 и более) при использовании ранговой корреляции применяется множественный коэффициент ранговой корреляции (коэффициент конкордации) w, который определяется по формуле



где m — число факторов, между которыми изучается связь;


n — число ранжированный единиц;


S — сумма квадратов отклонений рангов.


Если обозначить rij ранг j-го фактора у j-й единицы, то величина S будет равна:



Значение коэффициента изменяется в пределах от 0 до 1 и характеризует степень тесноты связи, но уже при значении 0,5 можно говорить о тесной связи между вариацией изучаемых признаков. Значимость коэффициента конкордации проверяется на основе χ2— критерия Пирсона:



Если χ2расч > χ2табл, при вероятности α = 0,05(0,01; 0,1) и числе степеней свободы v = п -1, то полученное значение коэффициента конкордации является значимым.


В случае наличия связанных рангов коэффициент конкордации определяется по формуле:



где — количество связанных рангов по отдельным показателям. Проверка значимости осуществляется по формуле:



С помощью ранговых коэффициентов корреляции рангов Спирмена, Кендалла и конкордации можно установить факт наличия и измерить связь как между количественными, так и между качественными (атрибутивными) признаками, если они поддаются ранжированию.


Для исследования степени тесноты связи между качественными признаками в статистике широко используются непараметрические методы оценки связи (методы взаимной сопряженности).


1. Коэффициент ассоциации Д. Юла и коэффициент контингенции К. Пирсона используют при изучении связи между качественными признаками, каждый их которых представлен в виде альтернативного признака.


Расчетная таблица в таком случае состоит из четырех ячеек (таблица «четырех полей»), статистическое сказуемое которой схематически может быть представлено в виде:


Примечание: а, b, c, d — частоты взаимного сочетания(комбинации) двух альтернативных признаков — : n — общая сумма частот.


Коэффициент ассоциации исчисляется по формуле



Когда по каким-то причинам хотя бы один из показателей таблицы «четырех полей» отсутствует, величина коэффициента ассоциации будет равна единице, что будет означать завышенную оценку степени тесноты связи между признаками. В этом случае предпочтение отдается коэффициенту контингенции:



где а, b, c, d — числа в четырехклеточной таблице.


Коэффициент контингенции также изменяется в пределах от —1 до + 1, но всегда его величина для тех же данных меньше коэффициента ассоциации.


2. Коэффициенты взаимной сопряженности К. Пирсона и А.А. Чупрова используются для оценки тесноты связи между альтернативными признаками, принимающими любое число вариантов значений.


Первичная статистическая информация для исследования этой связи располагается в форме таблицы:


Примечание: mij — частоты взаимного сочетания двух атрибутивных признаков.


Коэффициент взаимной сопряженности К. Пирсона определяется по формуле:



где φ2 — показатель взаимной сопряженности.



Коэффициент взаимной сопряженности К. Пирсона изменяется от 0 до 1.


Коэффициент взаимной сопряженности А.А. Чупрова определяется по формуле:



где m1 — число строк в таблице;


m2 — число граф в таблице.


Коэффициент изменяется от 0 до 1, но уже при значении 0,3 можно утверждать факт наличия тесной связи между вариацией качественных признаков.


3. Биссериальный коэффициент корреляции позволяет изучить связь между качественным альтернативным и количественным варьирующим признаками:



где — средние значения признака в группах;


σr — среднее квадратическое отклонение фактических значений признака от среднего уровня;


p — удельный вес первой группы в совокупности;


q — удельный вес второй группы в совокупности;


Z — табличные значения Z-распределения в зависимости от р.


Традиционно анализ взаимосвязей между количественными признаками начинается с логического анализа сущности изучаемого явления и причинно-следственных связей для установления результативного показателя и факторов, оказывающих на него влияние.


Затем производится сбор первичной информации и проверка ее на однородность и нормальность распределения. Для оценки однородности совокупности традиционно используется коэффициент вариации по факторным признакам; если его значение не превышает 33%, то совокупность считается однородной. Проверка нормальности распределения осуществляется с помощью правила «трех сигм». Результаты проверки на нормальность распределения можно представить в табличной форме:


Сопоставление гр. 3 и 4 позволяет судить о наличии или об отсутствии нормальности распределения. В случае если отклонения от этих двух предпосылок незначительны, то не следует отказываться от применения корреляционного анализа.


Кроме того, на этом этапе осуществляется исключение из массива первичной информации всех резко выделяющихся (аномальных) единиц по уровню признаков-факторов. Исключаются все единицы, у которых величина признака не попадает в интервал и формируется новый массив для последующего анализа.


Далее, после установления факта наличия связи и ее формы, для чего используют различные методы, рассмотренные выше, измеряется степень тесноты связи и проводится оценка ее существенности.


Для определения степени тесноты парной линейной зависимости служит линейный коэффициент корреляции (r); при любой форме зависимости (линейной или криволинейной) рассчитывается эмпирическое корреляционное отношение (n) (оба показателя предложены К. Пирсоном). Формулы для расчета этих показателей в случае не сгруппированных данных имеют вид:



где — отклонения вариантов признака-фактора от их средней величины;


— отклонения вариантов значений результативного признака от их средней величины;


n — число единиц в совокупности;


σxσy — среднее квадратическое отклонение соответственно признака-фактора и результативного признака;


δ2 — межгрупповая дисперсия результативного признака, вызванная влиянием признака-фактора.


Линейный коэффициент корреляции может принимать значения в пределах от —1 до +1. Чем ближе он по абсолютной величине к 1, тем теснее связь. Знак при этом указывает на направление связи: «+» говорит о прямой связи, «—» — об обратной. Эмпирическое корреляционное отношение изменяется в пределах от 0 до 1; чем ближе значение к 1, тем теснее связь, направление связи он не показывает, но его можно установить по данным группировочной таблицы.


Оценка существенности линейного коэффициента корреляции при большом объеме выборки проводится с использованием отношения коэффициента корреляции (r) к его средней квадратической ошибке (σr):



где


Если это отношение окажется больше значения t-критерия Стьюдента, определяемого по Приложению 5 при числе степеней свободы k = n - 2 и с вероятностью (1 - α), то следует говорить о существенности коэффициента корреляции при уровне значимости а = 0,01 или 0,05.


Квадрат коэффициента корреляции r2 называется коэффициентом детерминации и показывает, на сколько процентов вариация результативного признака обусловлена вариацией признака-фактора.


Необходимо отметить, что само значение коэффициента корреляции не является доказательством наличия причинно-следственной связи между исследуемыми признаками, а является показателем взаимной согласованности их изменений и точно оценивает связь только при наличии линейной зависимости. Во всех прочих случаях значение этого показателя может быть малым или равняться нулю, а связь между признаками может быть, но носить нелинейный характер. Для исключения такого рода ошибок рекомендуется в качестве показателя тесноты связи использовать эмпирическое корреляционное отношение.


В случае выборочной совокупности возможны ситуации, когда значение коэффициента корреляции обусловлено случайными колебаниями выборочных данных, на основании которых он был исчислен. В этом случае становится необходимой оценка существенности линейного коэффициента корреляции, которая позволит распространить выводы, полученные по результатам выборки, на генеральную совокупность. Для малых значений коэффициента корреляции величина при отсутствии связи в генеральной совокупности распределена по закону Стьюдента с (n - 2) степенями свободы. Величина δг является средней квадратической ошибкой коэффициента корреляции:



Полученное значение tрасч сравнивают с табличным значением t-критерия (число степеней свободы (n — 2)). Если рассчитанная величина превосходит табличное значение критерия, то практически невероятно, что найденное значение обусловлено случайным совпадением значений факторного и результативного признаков в выборочной совокупности из генеральной, для которой действительное значение коэффициента корреляции равно нулю. Если же вычисленная величина tрасч меньше, чем табличное значение, то считается, что коэффициент корреляции в генеральной совокупности в действительности равен нулю, а значит, и эмпирический коэффициент корреляции не отличен от нуля.




Практикум по теории статистики. Учебно-практическое пособие

Содержит обзор основных понятий теории статистики. Представлены основы методологии статистического исследования, рассматриваются характеристики множества: вариация, статистические распределения, выборочный метод; раскрываются вопросы, связанные со статистическим изучением взаимосвязей социально-экономических явлений и процессов, а также вопросы оценки изменения во времени различных социально-экономических явлений и процессов.<br />             Для преподавателей, аспирантов, студентов экономических вузов, экономистов, менеджеров, а также для всех, изучающих статистику самостоятельно.

199
 Ковалева Т.Ю. Практикум по теории статистики. Учебно-практическое пособие

Ковалева Т.Ю. Практикум по теории статистики. Учебно-практическое пособие

Ковалева Т.Ю. Практикум по теории статистики. Учебно-практическое пособие

Содержит обзор основных понятий теории статистики. Представлены основы методологии статистического исследования, рассматриваются характеристики множества: вариация, статистические распределения, выборочный метод; раскрываются вопросы, связанные со статистическим изучением взаимосвязей социально-экономических явлений и процессов, а также вопросы оценки изменения во времени различных социально-экономических явлений и процессов.<br />             Для преподавателей, аспирантов, студентов экономических вузов, экономистов, менеджеров, а также для всех, изучающих статистику самостоятельно.

Внимание! Авторские права на книгу "Практикум по теории статистики. Учебно-практическое пособие" (Ковалева Т.Ю.) охраняются законодательством!