Лекция 3. Биомеханический анализ движений человека
В третьей лекции по дисциплине «Биомеханика двигательной деятельности» описан биомеханический анализ движений человека Биомеханический анализ движений человека начинается с регистрации и определения различных механических характеристик движущегося или покоящегося тела: кинематических, динамических, энергетических и др. Некоторые из этих характеристик определяются экспериментально, а остальные – расчетным путем.
Лекция 3
Биомеханический анализ движений человека
3.1. Понятие о биомеханическом анализе
Биомеханический анализ движений человека всегда начинается с определения различных характеристик движущегося тела. Этими характеристиками могут быть различные механические характеристики (например, перемещение, скорость, ускорение) и биологические характеристики (сила тяги мышцы, время суммарной электрической активности мышцы). Некоторые из этих характеристик определяются экспериментально, а остальные – расчетным путем. В биомеханике широко используются механические характеристики движущегося тела. Прежде чем перейти к описанию механических характеристик введем ряд понятий, характеризующих механическое движение тел.
3.2. Механическое движение тела
Механическое движение тела – это изменение положения тела в пространстве относительно других тел. Механическое движение является неотъемлемым компонентом функционирования человеческого организма. Чтобы определить положение какого-либо тела в пространстве, прежде всего, нужно выбрать тело отсчета.
Тело отсчета – тело, которое условно считается неподвижным и относительно которого рассматривается движение данного тела.
Выбор тела отсчета определяется соображениями удобства для изучения данного движения. Обычно за тело отсчета принимается тело, неподвижное относительно поверхности Земли.
Система отсчета состоит из тела отсчета, системы координат и часов, синхронно идущих во всех точках пространства.
Физические величины бывают скалярными и векторными.
Векторная величина отображается отрезком прямой со стрелкой на одном конце. Длина отрезка в выбранном масштабе выражает числовое значение векторной величины, а стрелка указывает ее направление. Векторную величину обозначают буквой с черточкой над ней (или стрелкой) или жирным шрифтом. В настоящей лекции векторные величины будут обозначаться жирным шрифтом.
Скалярная величина (от лат. scalaris — ступенчатый) в механике – величина, каждое значение которой может быть выражено одним числом. То есть скалярная величина определяется только своим значением, в отличие от векторной, которая кроме значения имеет направление. К скалярным величинам относятся длина, площадь, время, температура и т. д.
Тело человека – это не материальная точка, а очень сложная биомеханическая система переменной конфигурации. При изучении кинематики движений человека мы можем исследовать движение отдельных точек его тела (например, центров суставов) и производить анализ и оценку их движений с помощью механических характеристик. При изучении движений отдельных звеньев тела человека мы можем вычленить и наблюдать наиболее простые формы движения тела – поступательное и вращательное.
Поступательным движением тела называется такое движение, при котором всякая прямая, проведенная в этом теле, перемещается, оставаясь параллельной самой себе. Поступательное движение не следует смешивать с прямолинейным. При поступательном движении тела траектории его точек могут быть как прямолинейными, так и криволинейными (например, траектория полета ядра или траектория ОЦТ тела человека в полетной фазе бегового шага).
При поступательном движении тела все его точки движутся по одинаковым и параллельно расположенным траекториям и имеют в каждый момент времени равные скорости и равные ускорения. Поэтому поступательное движение тела вполне определяется движением какой-либо его одной точки, а, значит, задача изучения поступательного движения тела сводится к изучению движения любой его точки.
Вращательным движением тела называется такое движение, при котором какие-либо две его точки остаются все время неподвижными. Прямая, проходящая через эти точки, называется осью вращения. Траекторией движения любой точки тела при вращательном движении будет окружность.
3.3. Классификация механических характеристик движения человека
Исследуя движения человека, измеряют количественные показатели механического состояния тела человека или его движения, а также движения звеньев тела, то есть регистрируют механические характеристики движения.
Механические характеристики движения человека – это показатели и соотношения, используемые для количественного описания и анализа двигательной деятельности человека.
Механические характеристики делятся на две группы:
- кинематические (описывают внешнюю картину движений);
- динамические (несут информацию о причинах возникновения и изменения движения человека, а также показывают, как меняются виды энергии при движениях и происходит сам процесс изменения энергии).
3.4. Кинематические характеристики движения человека или спортивных снарядов
Кинематические характеристики движения человека делятся на следующие группы:
- пространственные,
- временные,
- пространственно-временные.
3.4.1. Пространственные характеристики
Для простоты, будем считать, что тело человека является твердым телом. Тогда положение тела в пространстве будут характеризовать следующие пространственные характеристики:
- координаты тела;
- перемещение тела;
- траектория тела.
Координаты тела – это пространственная мера местоположения тела относительно системы отсчета.
Положение тела в пространстве может быть описано с помощью декартовых и полярных координат. Для определения положения точки на плоскости в декартовой системе координат достаточно двух линейных координат: x и y, в пространстве – трех: x, y, z.
Перемещение тела (ΔS) – вектор, соединяющий начальное положение точки (тела) с его конечным положением. При прямолинейном движении перемещение тела совпадает с траекторией движущегося тела. При криволинейном – не совпадает.
А.В.Самсоновой с соавт. (2016) изучалось влияние «моста» на характеристики движения штанги. Авторами установлено, что «сведение лопаток» позволяет уменьшить значение модуля перемещения штанги из положения «штанга на вытянутых руках» в положение «штанга на груди» на 2,5 см, а «мост» — на 6,7 см. Применение технических приемов позволяет уменьшить механическую работу по подъему штанги массой 144 кг на 43,7 Дж и 88,8 Дж соответственно (рис.3.1)
Рис.3.1. Перемещение штанги из положения «штанга на вытянутых руках» в положение «штанга на груди» (А.В.Самсонова с соавт., 2016)
Траектория движения тела – это геометрическое место положений движущегося тела в рассматриваемой системе координат.
В тяжелой атлетике одним из критериев мастерства является траектория движения штанги. На рис.3.2 представлены различные варианты траектории штанги. Считается, что ширина «коридора» в котором заключена траектория движения штанги не должна превышать 12 см.
Рис.3.2. Оптимальная (1) и нерациональные (2 и 3) траектории движения штанги при выполнении тяжелоатлетических упражнений.
Путь – физическая величина (скалярная), численно равная длине траектории движения точки или тела.
3.4.2. Временные характеристики
Временные характеристики раскрывают движение во времени. К временным характеристикам относятся:
- длительность движения тела,
- темп движений,
- ритм движений.
Длительность движения тела – это временная мера, которая измеряется разностью моментов времени окончания и начала движения тела.
Фаза – это часть движения, в течение которой решается самостоятельная двигательная задача.
Например, в беге существуют фаза опоры и фаза полета. Каждая из этих фаз характеризуется определенной длительностью.
Темп движений определяется количеством движений звена человека (например руки или ноги) в единицу времени. Эта характеристика определяется для повторных (циклических движений). Темп движений – величина, обратная длительности движений. Чем больше длительность движений, тем ниже темп. При педалировании в максимальном темпе спортсмен выполняет три цикла в секунду, при беге – 2,8 циклов в секунду, при беге на коньках – 1,8 циклов в секунду.
В атлетизме темп выполнения силовых упражнений существенно влияет на гипертрофию скелетных мышц. Установлено, что эксцентрические упражнения, выполняемые в высоком темпе, оказывают большее повреждающее действие на скелетные мышцы по сравнению с умеренным темпом. Вследствие этого степень гипертрофии мышц при выполнении силовых упражнений в высоком темпе будет больше.
Ритм движений – временная мера соотношения частей (фаз) движения.
Пример. В беге отношение фазы опоры к фазе полета характеризует ритм движений бегуна. Это отношение называется ритмическим коэффициентом. У детей 5-6 лет ритмический коэффициент равен двум, то есть фаза опоры значительно превышает фазу полета. У взрослых мужчин 20-29 лет этот значение ритмического коэффициента равно 1,4. У сильнейших спринтеров этот показатель равен 0,8.
Во многих видах спорта, например, толкании ядра, барьерном беге ритм является важнейшим критерием технического мастерства спортсмена.
3.4.3. Пространственно-временные характеристики
К пространственно-временным характеристикам относят:
- скорость тела;
- ускорение тела.
Поступательное движение тела
Скорость тела (V) – это векторная величина, определяющая быстроту и направление изменения положения тела в пространстве с течением времени. Скорость измеряется отношением перемещения тела (ΔS) к затраченному времени V= ΔS/Δt.
В спорте скорость движения человека или снаряда является критерием спортивного мастерства. Существует ряд видов спорта, в которых чем выше скорость перемещения спортсмена, тем выше результат, табл. 3.1.
Лекция 3.5.1
МОДУЛЬ 3 «Электростатика. Магнитостатика. Постоянный ток»
Неделя 1-2
Лекция 1. Электрическое поле системы неподвижных зарядов в вакууме. Теорема Гаусса для электростатического поля.
Электрический заряд. Закон Кулона. Напряжённость электростатического поля. Силовые линии. Принцип суперпозиции и его применение к расчёту поля системы неподвижных зарядов. Поток вектора напряжённости электрического поля. Теорема Гаусса в интегральной и дифференциальной формах в вакууме и её применение для расчёта электростатических полей.
ОЛ-1(§1.1- 1.6), ОЛ-4(§1.1- 1.5, §1.11, §1.13-1.14), ОЛ-5(§1.1- 1.4), ДЛ-11.
Лекция 2. Работа и потенциал электростатического поля.
Работа электростатического поля при перемещении зарядов. Циркуляция вектора напряжённости. Связь напряжённости и потенциала. Уравнение Пуассона.
ОЛ-1(§1.7- 1.8), ОЛ-4(§1.6, 1.8, 1.12), ОЛ-5(§1.5- 1.6), ДЛ-11.
Семинар 1. Электростатическое поле в вакууме. Принцип суперпозиции. Проводники в электростатическом поле.
Ауд.: ОЛ-8 задачи 2.18, 2.27, 2.36, 2.69 или ОЛ-9 задачи 3.13, 3.20, 3.28, 3.61.
Дома: ОЛ-8 задачи 2.17, 2.44 или ОЛ-9 задачи 3.12, 3.36.
Неделя 3-4
Лекция 3. Электростатическое поле в диэлектрике.
Электрический диполь в электростатическом поле. Поляризация диэлектриков. Электростатическое поле в диэлектрике. Поляризованность. Свободные и связанные заряды. Связь поляризованности с плотностью связанных зарядов. Вектор электрического смещения. Обобщение теоремы Гаусса. Поле на границе раздела диэлектриков.
ОЛ-1(§2.1- 2.4), ОЛ-4(§1.9, 2.1- 2.7), ОЛ-5(§1.7, 3.1- 3.6), ДЛ-11.
Лекция 4. Электрическое поле заряженных проводников. Энергия электростатического поля. Поле вблизи поверхности проводника. Электроёмкость проводников и конденсаторов. Ёмкости плоского, цилиндрического и сферического конденсаторов. Энергия системы неподвижных зарядов. Энергия заряженного проводника, конденсатора. Плотность энергии электростатического поля.
ОЛ-1(§3.1- 3.4), ОЛ-4(§3.1- 3.4, 4.1- 4.3), ОЛ-5(§2.1- 2.3, 2.6, 4.1- 4.3), ДЛ-11.
Семинар 2. Теорема Гаусса. Поле в диэлектрике.
Ауд.: ОЛ-8 задачи 2.32, 2.33, 2.93, 2.96 или ОЛ-9 задачи 3.23, 3.25, 3.82, 3.85.
Дома: ОЛ-8 задачи 2.37, 2.99 или ОЛ-9 задачи 3.29, 3.89
Тему «Электрический ток» студенты прорабатывают самостоятельно. При этом рассматривают следующие вопросы: носители тока в средах, сила и плотность тока, уравнение непрерывности, электрическое поле в проводнике с током, сторонние силы, закон Ома и Джоуля – Ленца в интегральной и дифференциальной формах.
ОЛ-1(§4.1- 4.7), ОЛ-4(§5.1- 5.8), ОЛ-5(§5.1- 5.5), ДЛ-11.
Неделя 5-6
Лекции 5. Магнитное поле в вакууме.
Вектор индукции и напряжённости магнитного поля. Закон Био-Савара-Лапласа. Принцип суперпозиции магнитных полей. Поле прямого и кругового токов. Поток вектора магнитной индукции. Теорема Гаусса для магнитного поля. Теорема о циркуляции вектора индукции магнитного поля в интегральной и дифференциальной формах. Расчёт магнитного поля тороида и соленоида.
ОЛ-1(§5.1- 5.5), ОЛ-4(§6.1- 6.3, 6.12), ОЛ-5(§6.2- 6.5), ДЛ-11.
Лекция 6. Движение заряженных частиц в электрическом и магнитном полях.
Сила Лоренца. Движение заряженной частицы в электрическом и магнитном полях. Ускорение заряженных частиц. Эффект Холла.
ОЛ-1(§6.1- 6.7), ОЛ-4(§6.5, 10.1- 10.5, 11.3), ДЛ-11.
Семинар 3. Электроёмкость, конденсаторы, энергия электростатического поля.
Ауд.: ОЛ-8 задачи 2.115, 2.119, 2.135, 2.152 или ОЛ-9 задачи 3.105, 3.111, 3.129, 3.146 .
Дома: ОЛ-8 задачи 2.116, 2.149 или ОЛ-9 задачи 3.108, 3.143.
Неделя 7-8
Лекция 7. Проводники с током в магнитном поле.
Закон Ампера. Магнитный момент контура с током. Контур с током в магнитном поле. Работа по перемещению проводника с током в магнитном поле.
ОЛ-1(§7.1- 7.3), ОЛ-4(§6.6, 6.8- 6.10), ОЛ-5 (§6.6- 6.8), ДЛ-11.
Лекция 8. Магнитное поле в веществе.
Намагниченность вещества. Вектор напряжённости магнитного поля и его связь с векторами индукции и намагниченности. Магнитная восприимчивость и магнитная проницаемость вещества. Теоремы о циркуляции векторов напряжённости и намагниченности в интегральной и дифференциальной формах. Диамагнетики, парамагнетики и ферромагнетики. Поле на границе раздела магнетиков.
ОЛ-1(§8.1- 8.7), ОЛ-4(§7.1- 7.9), ОЛ-5(§7.1- 7.6), ДЛ-11.
Семинар 4. Магнитное поле токов.
Ауд.: ОЛ-8 задачи 2.234, 2.242, 2.250, 2.293 или ОЛ-9 задачи 3.228, 3.233, 3.239, 3.281.
Дома: ОЛ-8 задачи 2.239, 2.258 или ОЛ-9 задачи 3.231, 3.249.
Неделя 9-10
Лекция 9. Электромагнитная индукция. Закон Фарадея. Правило Ленца. Самоиндукция. Взаимная индукция. Вихревые токи. Плотность энергии магнитного поля. Энергия и силы в магнитном поле. Магнитное давление.
ОЛ-1(§9.1- 9.6), ОЛ-4(§8.1- 8.8), ОЛ-5(§9.1- 9.7), ДЛ-11.
Лекция 10. Уравнения Максвелла для электромагнитного поля. Основные положения электромагнитной теории Максвелла. Вихревое электрическое поле. Ток смещения. Закон полного тока. Уравнения Максвелла в интегральной и дифференциальной формах.
ОЛ-1(§10.1- 10.4), ОЛ-4(§9.1- 9.3), ОЛ-5(§10.1- 10.3), ДЛ-11.
Семинар 5. Движение заряженных частиц в магнитных и электрических полях. Электромагнитная индукция, энергия магнитного поля.
Ауд.: ОЛ-8 задачи 2.417, 2.325, 2.329, 2.374 или ОЛ-9 задачи 3.401, 3.310, 3.314, 3.358.
Дома: ОЛ-8 задачи 2.377, 2.375 или ОЛ-9 задачи 3.361, 3.359.
МОДУЛЬ 4 « Уравнения Максвелла. Электромагнитные волны »
Неделя 11-12
Лекция 11. Электромагнитные волны.
Волновое уравнение для электромагнитного поля, его общее решение. Скорость распространения электромагнитных волн. Энергия и импульс электромагнитного поля. Вектор Пойнтинга. Теорема Пойнтинга.
ОЛ-3(§1.1- 1.2), ОЛ-5(§10.4- 10.5), ОЛ-6(§2.1- 2.5), ОЛ-7(§2.1- 2.5), ДЛ-11.
Лекции 12. Электромагнитная природа света. Интерференция света.
Шкала электромагнитных излучений. Оптическое излучение, его интенсивность. Интерференция электромагнитных волн. Расчёт интерференционной картины с двумя источниками. Пространственно-временная когерентность. Интерференция света в тонких плёнках. Интерференционные полосы равной толщины и равного наклона. Применение интерференции.
ОЛ-3(§4.1- 4.5), ОЛ-6(§3.1, 4.1- 4.6), ОЛ-7(§3.1, 4.1- 4.6), ДЛ-11.
Семинар 6. Электромагнитные волны.
Ауд.: ОЛ-8 задачи 3.245, 3.249, 3.250, 3.253 или ОЛ-9 задачи 4.229, 4.233, 4.234, 4.254.
Дома: ОЛ-8 задачи 3.243, 3.245 или ОЛ-9 задачи 4.227, 4.229.
Тему «Взаимодействие электромагнитных волн с веществом» студенты прорабатывают самостоятельно. При этом рассматривают следующие вопросы: электронная теория дисперсии, нормальная и аномальная дисперсии, закон Бугера, рассеяние света.
ОЛ-3(§7.1- 7.4), ОЛ-6(§7.1- 7.5), ОЛ-7(§7.1- 7.5), ДЛ-11.
Неделя 13 -14
Лекции 13. Электромагнитная природа света. Интерференция света.
Шкала электромагнитных излучений. Оптическое излучение, его интенсивность. Интерференция электромагнитных волн. Расчёт интерференционной картины с двумя источниками. Пространственно-временная когерентность. Интерференция света в тонких плёнках. Интерференционные полосы равной толщины и равного наклона. Применение интерференции.
ОЛ-3(§4.1- 4.5), ОЛ-6(§3.1, 4.1- 4.6), ОЛ-7(§3.1, 4.1- 4.6), ДЛ-11.
Лекция 14. Дифракция света.
Принцип Гюйгенса-Френеля. Метод зон Френеля. Дифракция от круглого отверстия и от круглого диска. Дифракция Фраунгофера от щели. Предельный переход от волновой оптики к геометрической. Дифракционная решётка. Спектральные характеристики дифракционных решёток. Дифракция рентгеновских лучей. Формула Вульфа – Бреггов. Понятие о рентгеноструктурном анализе.
ОЛ-3(§5.1- 5.6), ОЛ-6(§5.1- 5.7), ОЛ-7(§5.1- 5.8), ДЛ-11.
Семинар 7. Интерференция света.
Ауд.: ОЛ-9 задачи 5.74, 5.82, 5.85, 5.91 или ОЛ-8 задачи 4.81, 4.87, 4.91, 4.97.
Дома: ОЛ-8 задачи 4.86, 4.98 или ОЛ-9 задачи 5.80, 5.92.
Неделя 15-16
Лекция 15. Дифракция света.
Принцип Гюйгенса-Френеля. Метод зон Френеля. Дифракция от круглого отверстия и от круглого диска. Дифракция Фраунгофера от щели. Предельный переход от волновой оптики к геометрической. Дифракционная решётка. Спектральные характеристики дифракционных решёток. Дифракция рентгеновских лучей. Формула Вульфа – Бреггов. Понятие о рентгеноструктурном анализе.
ОЛ-3(§5.1- 5.6), ОЛ-6(§5.1- 5.7), ОЛ-7(§5.1- 5.8), ДЛ-11.
Лекция 16. Поляризация света.
Естественный и поляризованный свет. Закон Малюса. Закон Брюстера. Распространение электромагнитных волн в одноосных кристаллах. Двойное лучепреломление. Поляризация света при двойном лучепреломлении. Поляризационные призмы и поляроиды.
ОЛ-3(§8.1- 8.4), ОЛ-6(§6.1- 6.3), ОЛ-7(§6.1- 6.3), ДЛ-11.
Семинар 8. Дифракция и поляризация света.
Ауд.: ОЛ-8 задачи 4.114, 4.118, 4.156, 4.180 или ОЛ-9 задачи 5.105, 5.109, 5.147, 5.171.
Дома: ОЛ-8 задачи 4.154, 4.183 или ОЛ-9 задачи 5.145, 5.174.
Неделя 17-18
Лекция 17. Голография. Опорная и предметная световые волны. Запись и воспроизведение голограмм. Применение голографии.
ОЛ-3(§6.1- 6.4), ОЛ-6(§5.9), ОЛ-7(§5.10), ДЛ-11.
Лекция 18. Резервная.
Семестр заканчивается экзаменом на всех факультетах
Лекция 3.5.1
Замечание 1. Основной задачей теории вероятностей является вычисление вероятностей сложных событий на основе знания вероятностей более простых.
Теорема 1. Вероятность одновременного появления любых событий A 1 , . A n выражается формулой умножения вероятностей :
P(A 1 A 2 . A n ) = P(A 1 )P(A 2 |A 1 ) . P(A n |A 1 . A n-1 ),
в которой вероятность каждого следующего по порядку события вычисляется при условии, что в рассматриваемом опыте произошли все предыдущие события.
Замечание 2. Формула умножения вероятностей доказывается по индукции на основе свойства 16)P. Например, при n = 3 имеем P(A 1 A 2 A 3 ) = P(A 1 )P(A 2 |A 1 )P(A 3 |A 1 A 2 ).
Определение 1. События A и B называются независимыми , если P(AB) = P(A)P(B).
Определение 2. События A 1 , . A n называются независимыми в совокупности , или просто независимыми , если каждое из них не зависит от произведения любой совокупности остальных. Если любые два события из A 1 , . A n независимы, то A 1 , . A n называются попарно независимыми .
Замечание 3. Независимость событий не следует из их попарной независимости, но обратное утверждение верно.
P(A 1 |A 2 ) = P(A 1 ), P(A 3 |A 1 A 2 ) = P(A 3 ), . P(A n |A 1 . A n-1 ) = P(A n ).
В этом случае формула умножения вероятностей принимает простой вид:
P(A 1 . A n ) = | n ∏ i=1 | P(A i ) , |
Пример 1. Пусть имеется тетраэдр, у которого 1-я грань выкрашена в красный цвет, 2-я грань – в синий, 3-я грань – в желтый, а 4-я грань выкрашена частями в красный, синий и желтый. Пусть случаи ω 1 , ω 2 , ω 3 , ω 4 состоят в выпадении в опыте G одной из граней, событие A состоит в появлении красного цвета, событие B – синего, и событие C – желтого. Тогда P(A) = P(ω 1 +ω 4 ) = 1/3. Аналогично, P(B) = P(C) = 1/2 . Далее, P(AB) = P(ω 4 ) = 1/4. В то же время P(A)P(B) = 1/4, т.е. P(AB) = P(A)P(B). Это значит, что события A и B независимы. Аналогично устанавливается, что события A и C, а также события B и C независимы. Таким образом, события A, B, C являются попарно независимыми. Проверим, что эти события не являются независимыми в совокупности. Действительно, P(ABC) = P(ω 4 ) = 1/4, но P(A)P(B)P(C) = 1/8.
Замечание 5. Если события A и B независимы, то независимы также события A и B , A и B , A и B. Для событий A и B имеем:
P(A) | 2)A = | P(AΩ) | 12)A = | P(A(B+ B )) | 10)A = | P(AB + A B ) | A3 = | P(AB) + P(A B ) |
P(A B ) = P(A) – P(AB) = P(A) – P(A)P(B) | 10)P = | P(A)P( B ), |
т.е. согласно определению 1, A и B независимы. Независимость остальных событий доказывается аналогично. Данное замечание справедливо и для произвольного количества независимых событий.
Замечание 6. Если несовместные события A и B имеют ненулевые вероятности, то они зависимы. Действительно, по условию AB = Ж . Если бы A и B были независимыми, тогда было бы верно равенство P(A)P(B) = Р(AB) = Р( Ж ) = 0, а левая часть равенства по условию нулю не равна. Следовательно A и B зависимы.
Пример 2. Вероятность выпадения “герба” или “решки” при подбрасывании монеты равняется 1/2. Но вероятность их одновременного выпадения равна нулю, поскольку они несовместны. Значит эти события зависимы.
P(A 1 A 2 A 3 ) = P(A 1 )P(A 2 |A 1 )P(A 3 |A 1 A 2 ).
Очевидно, P(A 1 ) = 4/10, поскольку по классической формуле: P(A 1 ) = m / n и m = 4, n = 10. При нахождении P(A 2 |A 1 ) необходимо принять во внимание то, что после того как произошло событие A 1 , состав шаров в урне изменился: стало 3 белых и 6 черных шаров. Поэтому вероятность вынуть белый шар из урны: P(A 2 |A 1 ) = 3/9. Аналогично, P(A 3 |A 1 A 2 ) = 2/8. Поэтому P(A) = (4/10)(3/9)(2/8) = 1/30.
Найдём решение при выполнении условия б ). В данной ситуации события A 1 , A 2 , A 3 независимы. Следовательно, по замечанию 4 к теореме 1 получаем
P(A) = P(A 1 A 2 A 3 ) = P(A 1 )P(A 2 )P(A 3 ) = (P(A 1 )) 3 = (4/10) 3 = 8/125.
Как видим, вероятность вытащить подряд три белых шара при выполнении второго условия почти в два раза выше, чем при первом
2. Формула сложения вероятностей
Теорема 1. Вероятность появления в опыте хотя бы одного из событий A 1 , . A n выражается формулой сложения вероятностей:
n ∑ i=1 | A i ) = | n ∑ i=1 | P(A i ) – | n-1 ∑ i=1 | n ∑ j=i+1 | P(A i A j ) + . + (-1) n-1 P( | n ∏ i=1 | A i ). |
Замечание 1. Данная формула доказывается по индукции на основе свойства 6)P . Например, при n = 3 эта формула принимает вид:
P(A 1 + A 2 + A 3 ) = P(A 1 ) + P(A 2 )+ P(A 2 ) – P(A 1 A 2 ) – P(A 1 A 3 ) –
– P(A 2 A 3 ) + P(A 1 A 2 A 3 ).
Замечание 2. Если события A 1 , . ,A n попарно несовместны, то вероятность произведения любой комбинации из этих событий равняется нулю. Поэтому формула сложения вероятностей принимает простой вид:
P( | n ∑ i=1 | A i ) = | n ∑ i=1 | P(A i ) . |
Замечание 3. Если события A i в бесконечной последовательности A 1 , . , A i , . , попарно несовместны, то выполняется свойство счётной аддитивности вероятности (см. замечание Л1.Р3.З6)
P( | ∞ ∑ i=1 | A i ) = | ∞ ∑ i=1 | P(A i ) . |
A | Δ = | ∞ ∑ i=1 | A i . |
A | Δ = | n ∑ i=1 | A i + B n , где B n | Δ = | ∞ ∑ i=n+1 | A i . |
P(A) = | n ∑ i=1 | P(A i ) +P(B n ). |
∞ ∏ n=1 | B n = Ж . |
Замечание 4. Предположим, что события A 1 , . , A n совместны и независимы. Тогда
P( | n ∑ i=1 | A i ) = 1 – | n ∏ i=1 | P( A i ) . |
Воспользовавшись условием независимости событий A 1 , A 2 , A 3 , используя замечание 4, эту же задачу можно решить значительно проще:
P(A) = P(A 1 + A 2 + A 3 ) = = 1 – P( A 1 ) P( A 2 ) P( A 3 ) = 0.995.
3. Формула полной вероятности
Теорема 1. Пусть с опытом G связаны гипотезы H 1 , . H n , тогда вероятность появления произвольного события A в опыте G выражается формулой полной вероятности :
P(A) = | n ∑ i=1 | P(H i )P(A|H i ), |
где P(H i ) – вероятность гипотезы, P(A|H i ) – условная вероятность события A при условии, что справедлива гипотеза H i , i = 1,n .
Замечание 2. Теорема доказывается следующим образом:
P(A) | 2)A P(ΩA) = P(A(H 1 + . + H n )) | 10)A = | P(AH 1 + . + AH n ) | 8)P = |
= P(AH 1 ) + . + P(AH n ) | 16)P = | P(H 1 )P(A|H 1 ) + . + P(H n )P(A|H n ). |
Пример 1. Пусть имеется пять урн, из них в двух урнах по одному белому и трем черным шарам (урны наполнения а ), а в трех урнах – по два белых и два черных шара (урны наполнения б ). Наугад выбирается некоторая урна и из нее вынимается шар. Найти вероятность того, что шар окажется белым (событие A).
Найдем решение. Рассмотрим две гипотезы: H 1 и H 2 : выбрана урна с наполнением а и б соответственно. По классической формуле вероятности гипотез равны Р(H 1 ) = 2/5, Р(H 2 ) = 3/5. Вероятность извлечения белого шара из урны наполнения а : Р(A|H 1 ) = 1/4 (т.е. из четырех шаров только один белый); а из урны наполнения б : Р(A|H 2 ) = 1/2. Ответ находим по формуле полной вероятности:
Р(A) = Р(H 1 )Р(A|H 1 ) + Р(H 2 )Р(A|H 2 ) =
(2/5)(1/4) + (3/5)(1/2) = 2/5.
4. Формула Байеса
Теорема 1. Пусть с опытом G связаны гипотезы H 1 , . H n . Предположим, что при проведении опыта произошло событие A, вероятность которого была P(A) > 0. Пусть до опыта G были известны лишь априорные вероятности гипотез P(H i ), i = 1,n и соответствующие им условные вероятности P(A|H i ), i = 1,n события A. В этом случае условная ( апостериорная ) вероятность P(H i |A) гипотезы H i при условии, что событие A произошло, определяется по формуле Байеса :
P(H i |A) = P(H i )P(A|H i ) / | n ∑ k=1 | P(H k )P(A|H k ). |
Замечание 1. Данная формула вытекает из свойств условной вероятности. Действительно, по свойству 16)P имеем P(H i )P(A|H i ) = P(A)P(H i |A). Откуда следует, что P(H i |A) = P(H i )P(A|H i ) / P(A). Далее остается воспользоваться формулой полной вероятности:
P(A) = | n ∑ k=1 | P(H k )P(A|H k ). |
Замечание 2. Формула Байеса предназначена для вычисления апостериорных вероятностей гипотез после проведения опыта с учетом полученной информации (событие A уже произошло).
Пример 1. Пусть в примере Л3.Р3.П1 был вынут шар, который оказался белым (произошло событие A). Найдем вероятность того, что он был извлечен из урны наполнения а , т.е. P(H 1 |A). Ранее были найдены значения вероятностей: P(H 1 ) = 2/5; P(H 2 ) = 3/5; P(A|H 1 ) = 1/4; P(A|H 2 ) = 1/2; P(A) = 2/5. Тогда по формуле Байеса
P(H 1 |A) = | P(H 1 )P(A|H 1 ) P(A) | = | (2/5)(1/4) 2/5 | = 1/4. |
![]() |
5. Формула БернуллиОпределение 1. Числом сочетаний C n m из n элементов по m (m ≤ n) называется количество всех возможных способов, которыми можно выбрать m различных элементов из n, вычисляемое по формуле: Лекция 5.3. Матричные вычислительные системыЭкспериментальные разработки по созданию многопроцессорных вычислительных систем начались в 1960-х годах. Одной из первых таких систем стала МВС ILLIAC-IV (Illinois Automatic Computer), которая включала 8 кластеров по 64 ПЭ, работающих по единой программе, применяемой к содержимому собственной оперативной памяти каждого ПЭ. Отличительной особенностью МВС является жестко синхронизируемая множественная обработка данных. Высокая производительность достигается с помощью большого количества простых по структуре процессоров, каждый из которых изготавливается в виде большой интегральной схемы и называется процессорным элементом ввиду ограниченного круга выполняемых операций. Основная проблема, стоящая перед разработчиками МВС, — организация межпроцессорных связей. Устранение этой проблемы существенно упрощается для матрицы процессоров, работающих в синхронном режиме. Помимо технических причин такой организации матричных систем существует и экономическая: построить процессоров с одним устройством управления дешевле, чем аналогичных вычислительных машин. Определим ключевые компоненты МВС и установим взаимосвязи между ними: ∙ набор процессорных элементов; ∙ набор банков памяти; ∙ блоки локального управления; ∙ блок общего управления. Наиболее общая структура МВС содержит наборы идентичных ПЭ и банков памяти. Каждый ПЭ может непосредственно соединяться со своей секцией памяти. Связь между ПЭ и присвоенным ему банком памяти осуществляется посредством коммутационной среды, которая объединяет все ПЭ. Такая организация системы приведена на рис. 5.3.1 , где коммутационная среда изображена как отдельный компонент, подключаемый к ПЭ с помощью входов и выходов. В общем Устройство управления (управляющий процессор) Рис. 5.3.1. Типовая структура процессорной матрицы с одинаковым числом процессоров и банков памяти смысле при такой организации коммутирующая сеть обычно распределена между различными процессорами. В другой часто встречающейся конфигурации используется более сложная коммутационная среда: коммутатор устанавливается между процессорами и банками памяти (рис. 5.3.2 ). Такая конфигурация устраняет ограничения на связь ПЭ только с одним банком памяти и позволяет объединить в матрицу различное число банков памяти Управление работой системы осуществляется устройством управления или управляющим процессором (УП), который характеризуется высоким быстродействием и имеет многомодульную оперативную память большого объема. Высокое быстродействие УП обеспечивает непрерывность потока команд, направляемых для выполнения в матрицу ПЭ. Повышенные требования к характеристикам оперативной памяти обусловлены спецификой применения матричных систем, рассчитанных на выполнение трудоемких программ, перерабатывающих наборы данных большого объема. Кроме программ, исходных наборов данных, промежуточных и выходных результатов в оперативной памяти размещаются резидентные программы операционной системы, организующей и контролирующей ход вычислительных процессов. При работе системы УП выбирает команды из оперативной памяти, декодирует их с целью выявления команд обработки данных
Процессор 1 Процессор 2 Процессор 3 . Процессор N Устройство управления (управляющий процессор) Рис. 5.3.2. Типовая структура процессорной матрицы, предусматривающая различное число банков памяти и процессоров и направляет последние в матрицу ПЭ поочередно. Команды переходов выполняются самим процессором управления с учетом состояния ПЭ на момент завершения предшествующей команды. Команды ввода/вывода передаются для выполнения в процессор ввода/вывода. ПЭ однородны по составу и представляют собой относительно простые АЛУ, обладающие высокой скоростью обработки данных. Блоки управления ПЭ содержат средства дешифрации арифмети- ко-логических операций, управления их реализацией, формирования признаков по результатам операций и обращения к локальной сверхоперативной памяти. Все ПЭ, кроме блокируемых, в один и тот же момент времени выполняют одну и ту же операцию, жестко задаваемую УП, над различными данными, размещаемыми в локальной сверхоперативной памяти. ПЭ может пропустить команду, т. е. блокировать ее, если на его входе нет данных, но выполнять команду, отличную от заданной для всех, не может. Асинхронное выполнение различных команд в различных ПЭ в одном такте потребовало бы существенно более сложной организации УП и усложнения структуры системы в целом. Несмотря на то, что идея регулярной матрицы процессоров, выполняющих одну и ту же операцию над различными данными, является основой канонической МВС, на практике часто требуется некоторая форма автономного управления отдельным ПЭ для реализации независимых разветвлений данных в пределах потока команд. В простейшем случае такой подход реализуется с помощью передачи одного одноразрядного флага в каждый ПЭ для маскирования выполнения команды. Таким образом, процесс управления представляет собой трансляцию команд в матрицу, выполняемую устройством управления, а затем каждый элементарный процессор делает выбор — выполнять или не выполнять команду в зависимости от того, установлен или не установлен флаг. Действия процессора обычно сводятся к тому, разрешить ли на основе состояния данного флага циклы записи в память или регистры. Известно несколько альтернативных вариантов организации системы управления матрицей процессоров, предусматривающих декодирование некоторых команд в ПЭ. В зависимости от объема управления, возлагаемого на элементарный процессор, такие системы можно разбить на два типа: системы с полной процессорной независимостью и системы с микропрограммным управлением. В системах с полной процессорной независимостью каждый процессор матрицы имеет локальный блок управления, который независимо от других процессоров и устройства управления декодирует собственную программу. Однако при любой управляющей структуре должна существовать некоторая форма глобального управления, которая инициирует, останавливает и синхронизирует элементарные процессоры. Заметим, что согласно используемой нами терминологии такие системы следует рассматривать как матрицу компьютеров. Достоинство систем с полной независимостью процессоров заключается в том, что каждый процессор следит за своей магистралью в соответствии с индивидуальной программой выполняет операции над своими данными. Синхронизация требуется только при или после обновления глобальной базы данных и выполняется с помощью флага, устанавливаемого для каждого элементарного процессора или компьютера матрицы. Простейшим примером МВС с микропрограммным управлением является двухуровневая управляющая структура. Первый уровень — общий, на нем производятся декодирование команд и транслирование их в матрицу, на этом уровне матрица синхронизируется. На втором (более низком) уровне элементарный процессор интерпретирует команду и генерирует микрокоманды. Важно отметить, что задаваемая команда может быть интерпретирована в микропроцессоре различными способами. Таким образом, общее управление является глобаль- ным, а его интерпретация — локальной. Поскольку последовательности микрокоманд могут быть различной длины, синхронизация достигается с помощью системы флагов или, что предпочтительнее, посредством опережающего просмотра последовательностей более длинных микрокоманд в любой заданной команде. Одной из характерных особенностей архитектуры МВС является организация памяти, определяющая способы ее адресации и подключения к элементарным процессорам. В случае структуры, представленной на рис. 5.3.1 , где каждый процессор подключается к своему блоку памяти, остается определить, как происходит адресация памяти. Команды, выдаваемые устройством управления, обычно содержат одинаковый адрес для всех процессоров. Вопрос состоит в том, разрешить ли индивидуальному процессору обрабатывать этот адрес с помощью своего индексного регистра. В случае структуры, приведенной на рис. 5.3.2 , используется более сложная коммутационная среда, обеспечивающая связь каждого ПЭ с любым блоком памяти. При этом адресация к каждому банку памяти осуществляется независимо. Конфликты на уровне банков памяти — один из основных недостатков любой параллельной организации памяти. В качестве примера на рис. 5.3.3 , а представлена матрица 4 × 4, хранящаяся в четырех банках памяти. Можно видеть, что обращение к строкам матрицы A можно осуществлять без конфликтов, но все данные столбцов матрицы A располагаются в одном и том же банке памяти, поэтому выборку этих данных нельзя выполнять параллельно. При наличии сети коммутации, которая может подключать все банки памяти к одному процессору, желательно иметь структуру памяти или данных, при которой обращение к строкам, столбцам и другим основным подструктурам в виде матриц можно осуществлять без конфликтов. Одним из основных способов достижения этой цели является применение асимметричных схем хранения. На рис. 5.3.3 , б показан пример такой схемы для матрицы 4 × 4. Она обеспечивает бесконфликтный доступ к строкам и столбцам, хотя для диагоналей матрицы A конфликты сохраняются. Фирма Burroughs в проекте BSP предложила структуру памяти на основе асимметричных схем. Уникальной особенностью системы BSP является то, что каждое АЛУ обеспечивается операндами за один цикл обращения к памяти. Это означает, что расстояние в па- Лекция 3.5.1Замечание 1. Основной задачей теории вероятностей является вычисление вероятностей сложных событий на основе знания вероятностей более простых. Теорема 1. Вероятность одновременного появления любых событий A 1 , . A n выражается формулой умножения вероятностей : P(A 1 A 2 . A n ) = P(A 1 )P(A 2 |A 1 ) . P(A n |A 1 . A n-1 ), в которой вероятность каждого следующего по порядку события вычисляется при условии, что в рассматриваемом опыте произошли все предыдущие события. Замечание 2. Формула умножения вероятностей доказывается по индукции на основе свойства 16)P. Например, при n = 3 имеем P(A 1 A 2 A 3 ) = P(A 1 )P(A 2 |A 1 )P(A 3 |A 1 A 2 ). Определение 1. События A и B называются независимыми , если P(AB) = P(A)P(B). Определение 2. События A 1 , . A n называются независимыми в совокупности , или просто независимыми , если каждое из них не зависит от произведения любой совокупности остальных. Если любые два события из A 1 , . A n независимы, то A 1 , . A n называются попарно независимыми . Замечание 3. Независимость событий не следует из их попарной независимости, но обратное утверждение верно. P(A 1 |A 2 ) = P(A 1 ), P(A 3 |A 1 A 2 ) = P(A 3 ), . P(A n |A 1 . A n-1 ) = P(A n ). В этом случае формула умножения вероятностей принимает простой вид:
Пример 1. Пусть имеется тетраэдр, у которого 1-я грань выкрашена в красный цвет, 2-я грань – в синий, 3-я грань – в желтый, а 4-я грань выкрашена частями в красный, синий и желтый. Пусть случаи ω 1 , ω 2 , ω 3 , ω 4 состоят в выпадении в опыте G одной из граней, событие A состоит в появлении красного цвета, событие B – синего, и событие C – желтого. Тогда P(A) = P(ω 1 +ω 4 ) = 1/3. Аналогично, P(B) = P(C) = 1/2 . Далее, P(AB) = P(ω 4 ) = 1/4. В то же время P(A)P(B) = 1/4, т.е. P(AB) = P(A)P(B). Это значит, что события A и B независимы. Аналогично устанавливается, что события A и C, а также события B и C независимы. Таким образом, события A, B, C являются попарно независимыми. Проверим, что эти события не являются независимыми в совокупности. Действительно, P(ABC) = P(ω 4 ) = 1/4, но P(A)P(B)P(C) = 1/8. Замечание 5. Если события A и B независимы, то независимы также события A и B , A и B , A и B. Для событий A и B имеем:
т.е. согласно определению 1, A и B независимы. Независимость остальных событий доказывается аналогично. Данное замечание справедливо и для произвольного количества независимых событий. Замечание 6. Если несовместные события A и B имеют ненулевые вероятности, то они зависимы. Действительно, по условию AB = Ж . Если бы A и B были независимыми, тогда было бы верно равенство P(A)P(B) = Р(AB) = Р( Ж ) = 0, а левая часть равенства по условию нулю не равна. Следовательно A и B зависимы. Пример 2. Вероятность выпадения “герба” или “решки” при подбрасывании монеты равняется 1/2. Но вероятность их одновременного выпадения равна нулю, поскольку они несовместны. Значит эти события зависимы. P(A 1 A 2 A 3 ) = P(A 1 )P(A 2 |A 1 )P(A 3 |A 1 A 2 ). Очевидно, P(A 1 ) = 4/10, поскольку по классической формуле: P(A 1 ) = m / n и m = 4, n = 10. При нахождении P(A 2 |A 1 ) необходимо принять во внимание то, что после того как произошло событие A 1 , состав шаров в урне изменился: стало 3 белых и 6 черных шаров. Поэтому вероятность вынуть белый шар из урны: P(A 2 |A 1 ) = 3/9. Аналогично, P(A 3 |A 1 A 2 ) = 2/8. Поэтому P(A) = (4/10)(3/9)(2/8) = 1/30. P(A) = P(A 1 A 2 A 3 ) = P(A 1 )P(A 2 )P(A 3 ) = (P(A 1 )) 3 = (4/10) 3 = 8/125. Как видим, вероятность вытащить подряд три белых шара при выполнении второго условия почти в два раза выше, чем при первом 2. Формула сложения вероятностейТеорема 1. Вероятность появления в опыте хотя бы одного из событий A 1 , . A n выражается формулой сложения вероятностей:
Замечание 1. Данная формула доказывается по индукции на основе свойства 6)P . Например, при n = 3 эта формула принимает вид: P(A 1 + A 2 + A 3 ) = P(A 1 ) + P(A 2 )+ P(A 2 ) – P(A 1 A 2 ) – P(A 1 A 3 ) – Замечание 2. Если события A 1 , . ,A n попарно несовместны, то вероятность произведения любой комбинации из этих событий равняется нулю. Поэтому формула сложения вероятностей принимает простой вид:
Замечание 3. Если события A i в бесконечной последовательности A 1 , . , A i , . , попарно несовместны, то выполняется свойство счётной аддитивности вероятности (см. замечание Л1.Р3.З6)
Замечание 4. Предположим, что события A 1 , . , A n совместны и независимы. Тогда
Воспользовавшись условием независимости событий A 1 , A 2 , A 3 , используя замечание 4, эту же задачу можно решить значительно проще: P(A) = P(A 1 + A 2 + A 3 ) = = 1 – P( A 1 ) P( A 2 ) P( A 3 ) = 0.995. 3. Формула полной вероятностиТеорема 1. Пусть с опытом G связаны гипотезы H 1 , . H n , тогда вероятность появления произвольного события A в опыте G выражается формулой полной вероятности :
где P(H i ) – вероятность гипотезы, P(A|H i ) – условная вероятность события A при условии, что справедлива гипотеза H i , i = 1,n . Замечание 2. Теорема доказывается следующим образом:
Пример 1. Пусть имеется пять урн, из них в двух урнах по одному белому и трем черным шарам (урны наполнения а ), а в трех урнах – по два белых и два черных шара (урны наполнения б ). Наугад выбирается некоторая урна и из нее вынимается шар. Найти вероятность того, что шар окажется белым (событие A). Найдем решение. Рассмотрим две гипотезы: H 1 и H 2 : выбрана урна с наполнением а и б соответственно. По классической формуле вероятности гипотез равны Р(H 1 ) = 2/5, Р(H 2 ) = 3/5. Вероятность извлечения белого шара из урны наполнения а : Р(A|H 1 ) = 1/4 (т.е. из четырех шаров только один белый); а из урны наполнения б : Р(A|H 2 ) = 1/2. Ответ находим по формуле полной вероятности: Р(A) = Р(H 1 )Р(A|H 1 ) + Р(H 2 )Р(A|H 2 ) = 4. Формула БайесаТеорема 1. Пусть с опытом G связаны гипотезы H 1 , . H n . Предположим, что при проведении опыта произошло событие A, вероятность которого была P(A) > 0. Пусть до опыта G были известны лишь априорные вероятности гипотез P(H i ), i = 1,n и соответствующие им условные вероятности P(A|H i ), i = 1,n события A. В этом случае условная ( апостериорная ) вероятность P(H i |A) гипотезы H i при условии, что событие A произошло, определяется по формуле Байеса :
Замечание 1. Данная формула вытекает из свойств условной вероятности. Действительно, по свойству 16)P имеем P(H i )P(A|H i ) = P(A)P(H i |A). Откуда следует, что P(H i |A) = P(H i )P(A|H i ) / P(A). Далее остается воспользоваться формулой полной вероятности:
Замечание 2. Формула Байеса предназначена для вычисления апостериорных вероятностей гипотез после проведения опыта с учетом полученной информации (событие A уже произошло). Пример 1. Пусть в примере Л3.Р3.П1 был вынут шар, который оказался белым (произошло событие A). Найдем вероятность того, что он был извлечен из урны наполнения а , т.е. P(H 1 |A). Ранее были найдены значения вероятностей: P(H 1 ) = 2/5; P(H 2 ) = 3/5; P(A|H 1 ) = 1/4; P(A|H 2 ) = 1/2; P(A) = 2/5. Тогда по формуле Байеса
|