Лекция 6.1.1

Операционные системы (архив ИПМ специалисты, бакалавры 2001г – 2021г, Богомолов)

  • Современные операционные системы, Э. Таненбаум, 2002, СПб, Питер, 1040 стр., (в djvu 10.1Мбайт) подробнее>>
  • Сетевые операционные системы Н. А. Олифер, В. Г. Олифер (в zip архиве 1.1Мбайт)
  • Сетевые операционные системы Н. А. Олифер, В. Г. Олифер, 2001, СПб, Питер, 544 стр., (в djvu 6.3Мбайт) подробнее>>

6.1 Основные понятия

Менеджер памяти – часть операционной системы, отвечающая за управление памятью.

Основные методы распределения памяти:

Без использования внешней памяти (например: HDD)

С использованием внешней памяти

6.2 Методы без использования внешней памяти

6.2.1 Однозадачная система без подкачки на диск

Память разделяется только между программой и операционной системой.

Схемы разделения памяти:

Схемы разделения памяти

Третий вариант используется в MS-DOS. Та часть, которая находится в ПЗУ, часто называется BIOS.

6.2.2 Распределение памяти с фиксированными разделами.

Память просто разделяется на несколько разделов (возможно, не равных). Процессы могут быть разными, поэтому каждому разделу необходим разный размер памяти.

Системы могут иметь:

общую очередь ко всем разделам

к каждому разделу отдельную очередь

Распределение памяти с фиксированными разделами

Недостаток системы многих очередей очевиден, когда большой раздел может быть свободным, а к маленькому выстроилась очередь.

Алгоритмы планирования в случае одной очереди:

выбирается задача, которая максимально займет раздел

Также может быть смешанная система.

6.2.3 Распределение памяти динамическими разделами

В такой системе сначала память свободна, потом идет динамическое распределение памяти.

Распределение памяти динамическими разделами.

Перемещаемые разделы

Это один из методов борьбы с фрагментацией. Но на него уходит много времени.

Рост разделов

Иногда процессу может понадобиться больше памяти, чем предполагалось изначально.

Настройка адресов и защита памяти

В предыдущих примерах мы можем увидеть две основные проблемы.

Настройка адресов или перемещение программ в памяти

Защита адресного пространства каждой программы

Решение обоих проблем заключается в оснащении машины специальными аппаратными регистрами.

Базовый (указывает начало адресного пространства программы)

Предельный (указывает конец адресного пространства программы)

6.3 Методы с использованием внешней памяти (свопинг и виртуальная память)

Так как памяти, как правило, не хватает. Для выполнения процессов часто приходится использовать диск.

Основные способы использования диска:

Свопинг (подкачка) – процесс целиком загружается в память для работы

Виртуальная память – процесс может быть частично загружен в память для работы

6.3.1 Свопинг (подкачка)

При нехватке памяти процессы могут быть выгружены на диск.

т.к. процесс С очень большой, процесс А был выгружен временно на диск,
после завершения процесса С он снова был загружен в память.

Как мы видим процесс А второй раз загрузился в другое адресное пространство, должны создаваться такие условия, которые не повлияют на работу процесса.

Свопер – планировщик, управляющий перемещением данных между памятью и диском.

Этот метод был основным для UNIX до версии 3BSD.

Управление памятью с помощью битовых массивов

Вся память разбивается на блоки (например, по 32бита), массив содержит 1 или 0 (занят или незанят).

Чтобы процессу в 32Кбита занять память, нужно набрать последовательность из 1000 свободных блоков.

Такой алгоритм займет много времени.

битовые массивы и списки

Управление памятью с помощью связных списков

Этот способ отслеживает списки занятых (между процессами) и свободных (процессы) фрагментов памяти.

Запись в списке указывает на:

занят (P) или незанят (H) фрагмент

адрес начала фрагмента

Четыре комбинации соседей для завершения процесса X

Алгоритмы выделения блока памяти:

первый подходящий участок.

следующий подходящий участок, стартует не сначала списка, а с того места на котором остановился в последний раз.

самый подходящий участок (медленнее, но лучше использует память).

самый неподходящий участок, расчет делается на то, что программа займет самый большой участок, а лишнее будет отделено в новый участок, и он будет достаточно большой для другой программы.

6.3.2 Виртуальная память

Основная идея заключается в разбиении программы на части, и в память эти части загружаются по очереди.

Программа при этом общается с виртуальной памятью, а не с физической.

Диспетчер памяти преобразует виртуальные адреса в физические.

Страничная организация памяти

Страницы – это части, на которые разбивается пространство виртуальных адресов.

Страничные блоки – единицы физической памяти.

Страницы всегда имеют фиксированный размер. Передача данных между ОЗУ и диском всегда происходит в страницах.

Х – обозначает не отображаемую страницу в физической памяти.

Страничное прерывание – происходит, если процесс обратился к странице, которая не загружена в ОЗУ (т.е. Х). Процессор передается другому процессу, и параллельно страница загружается в память.

Таблица страниц – используется для хранения соответствия адресов виртуальной страницы и страничного блока.

Таблица может быть размещена:

в аппаратных регистрах (преимущество: более высокое быстродействие, недостаток – стоимость)

Типичная запись в таблице страниц

Присутствие/отсутствие – загружена или незагружена в память

Защита – виды доступа, например, чтение/запись.

Изменение – изменилась ли страница, если да то при выгрузке записывается на диск, если нет, просто уничтожается.

Читайте также:
Лекция 1.3.2

Обращение – было ли обращение к странице, если нет, то это лучший кандидат на освобождение памяти.

Информация о адресе страницы когда она хранится на диске, в таблице не размещается.

Для ускорения доступа к страницам в диспетчере памяти создают буфер быстрого преобразования адреса, в котором хранится информация о наиболее часто используемых страниц.

Страничная организация памяти используется, и в UNIX, и в Windows.

Хранение страничной памяти на диске

Статическая область свопинга

После запуска процесса он занимает определенную память, на диске сразу ему выделяется такое же пространство. Поэтому файл подкачки должен быть не меньше памяти. А в случае нехватки памяти даже больше. Как только процесс завершится, он освободит память и место на диске.

На диске всегда есть дубликат страницы, которая находится в памяти.

Этот механизм наиболее простой.

Статический и динамический методы организации свопинга.

Динамическая область свопинга

Предполагается не выделять страницам место на диске, а выделять только при выгрузке страницы, и как только страница вернется в память освобождать место на диске.

Этот механизм сложнее, так как процессы не привязаны к какому-то пространству на диске, и нужно хранить информацию (карту диска) о местоположении на диске каждой страницы.

Стэнфордский курс: лекция 6. Обучение нейросетей, часть 1

В прошлый раз мы обсудили историю возникновения свёрточных архитектур, а также узнали об их устройстве и широких возможностях применения. В течение следующих двух лекций мы поговорим об особенностях обучения нейросетей и разберёмся, как правильно настраивать параметры, выбирать функцию активации, подготавливать данные и добиваться успешных результатов.

Обучение нейросети — непредсказуемый и захватывающий процесс, который, однако, требует тщательной подготовки. В целом его можно разделить на три основных этапа:

  1. Однократная настройка
    Сюда входят: выбор функции активации, предварительная обработка данных, инициализация весов, регуляризация, градиентная проверка.
  2. Динамика обучения
    Отслеживание процесса обучения, оптимизация и обновление гиперпараметров.
  3. Оценка
    Использование ансамблевых методов.

В этой лекции мы обсудим некоторые детали первых двух пунктов. Если вы уже знакомы со всеми понятиями и имеете опыт работы с нейросетями, рекомендуем нашу статью с полезными советами по обучению моделей.

Обучение нейросети — непредсказуемый и захватывающий процесс, который, однако, требует тщательной подготовки. В целом его можно разделить на три основных этапа:

  1. Однократная настройка

Сюда входят: выбор функции активации, предварительная обработка данных, инициализация весов, регуляризация, градиентная проверка.

  1. Динамика обучения

Отслеживание процесса обучения, оптимизация и обновление гиперпараметров.

  1. Оценка

В этой лекции мы обсудим некоторые детали первых двух пунктов. Если вы уже знакомы со всеми понятиями и имеете опыт работы с нейросетями, рекомендуем нашу статью с полезными советами по обучению моделей.

Функция активации

Ранее мы выяснили, что в каждый слой нейросети поступают входные данные. Они умножаются на веса полносвязного или свёрточного слоя, а результат передаётся в функцию активации или нелинейность. Мы также говорили о сигмоиде и ReLU, которые часто используются в качестве таких функций. Но список возможных вариантов не ограничивается только ими. Какой же следует выбирать?

Рассмотрим наиболее популярные функции активации и обсудим их преимущества и недостатки.

Сигмоида

Функция сигмоиды преобразовывает поступающие в неё значения в вещественный диапазон [0, 1]. То есть, если входные данные окажутся большими положительными значениями, то после преобразования они будут равны примерно единице, а отрицательные числа станут близки к нулю. Это довольно популярная функция, которую можно интерпретировать как частоту возбуждения нейрона.

Но если внимательнее присмотреться к сигмоиде, можно заметить несколько проблем.

1. Насыщенные нейроны могут «убить» градиент. Возьмём сигмоидный узел вычислительного графа и передадим в него входные данные X. Когда мы делаем обратный проход, восходящий градиент равен dL/d , а локальный — dL/d * d /dx.

Что же произойдёт, если X будет равен −10? Градиент станет нулевым, поскольку все большие отрицательные значения находятся на прямом участке сигмоидной функции. Таким образом, во все последующие узлы будут передаваться нулевые производные — это и «убивает» градиентный поток.

А если X = 0? В этом случае всё будет в порядке, как и для других близких к нулю значений. А вот при X = 10 градиент снова обнулится. Поэтому сигмоида не работает для слишком высоких положительных или отрицательных данных.

2. Выходные значения сигмоиды не центрированы нулем. Пусть исходные данные полностью положительны — что тогда станет с градиентами во время обратного распространения? Они все будут либо положительными, либо отрицательными (в зависимости от градиента f). Это приведёт к тому, что все веса при обновлении также будут либо увеличены, либо уменьшены, и градиентный поток станет зигзагообразным.

Поэтому следует изначально подготавливать данные таким образом, чтобы их средним значением являлся ноль.

3. Функцию exp() достаточно дорого считать. Это не такая существенная проблема, поскольку скалярные произведения во время свёртки тратят гораздо больше вычислительных мощностей, но в сравнении с остальными функциями активации её тоже можно отметить.

Читайте также:
Лекция 5.3

Тангенс

Тангенс очень похож на сигмоиду, но обладает двумя существенными отличиями: он преобразует данные в диапазон [-1, 1] и имеет нулевое центрирование, что исключает вторую проблему сигмоиды. Значения градиента при обратном распространении по-прежнему могут обнуляться, тем не менее, использование тангенса обычно более предпочтительно.

ReLU

ReLU или Rectified Linear Unit стала довольно популярной в последние годы. Она вычисляет функцию f(x) = max(0,x), то есть просто выдаёт значения «ноль» и «не ноль». Это решает проблему обнуления градиента для положительных чисел. Кроме того, ReLU очень просто вычисляется: примерно в шесть раз быстрее сигмоиды и тангенса. Однако, в ней снова отсутствует нулевое центрирование.

Другой очевидный недостаток — градиент по-прежнему «умирает» при отрицательных входных данных. Это может привести к тому, что половина нейронов будет неактивна и не сможет обновляться.

Проблему можно попробовать решить, задав более низкую скорость обучения и подобрав другие весовые коэффициенты. Или использовать модификации ReLU.

Leaky ReLU

Отличие этой функции в том, что она имеет небольшой наклон в левой полуплоскости — значит, при отрицательных входных данных градиент не будет нулевым.

При этом функцию по-прежнему легко вычислить. То есть, она решает практически все перечисленные проблемы. Одной из её разновидностей является PReLU, которая выглядит как f(x) = max( x, x).

ELU

Эта функция похожа на leaky ReLU и обладает всеми её преимуществами, но включает в себя экспоненту, что делает её вычисление дороже. Её стоит использовать в тех случаях, когда вам важна устойчивость к шумовым данным.

Maxout

Maxout выбирает максимальную сумму из двух наборов весов, умноженных на исходные данные с учётом смещения. Тем самым он обобщает ReLU и leaky ReLU, не обнуляя градиент. Но, как можно догадаться по виду функции, maxout требует удвоения параметров и нейронов.

Подводя итог: используйте ReLU, можете попробовать взять leaky ReLU/Maxout/ELU. На тангенс и сигмоиду лучше не рассчитывать.

Подготовка данных

Существует три наиболее распространённых способа предварительной обработки данных. Будем полагать, что данные X — это матрица размером [NxD].

1. Вычитание среднего. Чтобы избежать смещения данных и сделать их симметричными относительно нуля, из каждого элемента вычитается среднее значение. Это помогает предотвратить ситуации, когда все исходные числа оказываются только положительными или отрицательными. В NumPy операция выглядит как X -= np.mean(X, axis = 0). В частности, при обработке изображений можно вычитать одно значение из всех пикселей (например, X -= np.mean(X)) или делать это отдельно по каждому из трёх цветовых каналов.

2. Нормализация. Изменение данных таким образом, чтобы они все были приблизительно одного масштаба. Один из вариантов — разделить каждое измерение на его стандартное отклонение: (X /= np.std(X, axis = 0)). Другой вариант — нормализовать каждое значение так, чтобы min и max были равны -1 и 1 соответственно. Нормализацию следует применять только в том случае, если исходные данные имеют разные форматы или единицы измерения. У изображений значения пикселей не выходят за пределы диапазона от 0 до 255, поэтому для них нет необходимости выполнять нормализацию.

Инициализация весов

Итак, мы построили архитектуру нейронной сети и подготовили данные. Прежде чем начать обучение, необходимо инициализировать параметры (веса).

Как не нужно делать: задавать веса нулевыми. Это приведёт к тому, что абсолютно все нейроны будут вести себя одинаково — совсем не то, что мы хотим получить. Нейросеть должна обучаться разным признакам.

Небольшие случайные величины. Более удачный вариант — присвоить весам маленькие значения. Тогда все нейроны будут уникальными и в процессе обучения постепенно интегрируются в различные части сети. Реализация может выглядеть так: W = 0.01* np.random.randn(D,H). Метод randn(n) формирует массив размера n х n, элементами которого являются случайные величины, распределённые по нормальному закону с математическим ожиданием 0 и среднеквадратичным отклонением 1 (распределение Гаусса). Недостаток этого способа в том, что он неплохо работает для небольших архитектур, но гораздо хуже справляется с громоздкими нейросетями.

Калибровка с помощью 1/sqrt(n). Проблема вышеупомянутого метода состоит в том, что дисперсия случайных величин растёт с числом нейронов. Чтобы избежать этого, можно масштабировать веса, поделив их на корень из количества входов: w = np.random.randn(n) / sqrt(n). Это гарантирует, что все нейроны сети изначально будут иметь примерно одинаковое выходное распределение.

Также можно использовать вариант w = np.random.randn(n) * sqrt(2.0/n), который был предложен в одном из исследований. Он приводит к наиболее удачному распределению нейронов, поэтому на практике рекомендуем использовать именно его.

Пакетная нормализация

Метод, известный также как batch normalization, решает множество проблем при инициализации, заставляя все активации (выводы) принимать единичное гауссово распределение в начале обучения.

Как же это работает? Рассмотрим небольшое число выводов нейронов на каком-либо слое. Пусть в функцию активации поступает вектор размерности d: x = (x(1),…,x(d)). Нормализуем его по каждой из размерностей:

Читайте также:
Лекция 1.2.3

Где E(x) — математическое ожидание, D(x) — дисперсия, которые вычисляются по всей обучающей выборке. Таким образом, вместо инициализации весов можно использовать эту простую дифференцируемую функцию и получить нормальное распределение на каждом слое.

Пакетная нормализация обычно применяется между слоями (полносвязными или свёрточными) и функциями активации.

Это очень полезный алгоритм, который часто применяется в современном машинном обучении. Нейросети, использующие batch normalization, значительно более устойчивы к плохой инициализации.

За нейросетью глаз да глаз

Мы выбрали архитектуру сети, подготовили данные, инициализировали веса и нормализовали их. Пришло время начать обучение! Вернее, попытаться начать. Самый простой способ проверить, что нейросеть готова обучаться — взять совсем немного данных и попробовать переобучить её на них, то есть, добиться очень хорошей точности и малых потерь. Для этого мы убираем регуляризацию, устанавливаем необходимое количество эпох обучения и вычисляем потери (они должны уменьшаться).

Напомним, что эпоха — один «проход» данных через нейросеть, после которого обновляются веса с помощью градиентного спуска. Упрощённо это выглядит следующим образом:

Теперь можно запустить настоящий процесс: взять все данные, добавить регуляризацию и установить начальную скорость обучения. К сожалению, просто выполнить код и оставить нейросеть на пару часов пока не получится. Необходимо убедиться, что потери постепенно уменьшаются после каждой эпохи. Если этого не происходит, скорее всего, скорость обучения слишком маленькая. Стремительный рост потерь наоборот говорит о слишком высоком значении learning rate.

Оптимизация гиперпараметров

Как мы могли убедиться, обучение нейронных сетей включает множество этапов настройки гиперпараметров. Наиболее распространенными являются:

— начальная скорость обучения;

— график затухания скорости обучения (например, постоянная затухания);

При желании можно даже модернизировать архитектуру сети, если вам кажется, что она выбрана не слишком удачно.

Learning rate — одно из самых важных значений. Попробуйте поэкспериментировать с различными вариантами и построить графики потерь. На рисунке ниже слева показаны эффекты, возникающие при изменении скорости обучения, а справа — типичная функция потерь при обучении небольшой нейросети на наборе данных CIFAR-10.

Вторая важная вещь, которую следует отслеживать — точность сети на обучающих и оценочных данных. Если поместить их на один график, то можно оценить наличие переобучения, о чём свидетельствуют расходящиеся кривые.

Для поиска оптимальных гиперпараметров стоит написать отдельную функцию, которая будет самостоятельно подбирать их и выполнять оптимизацию. При этом лучше использовать не равномерный поиск (известный также как «перебор по сетке»), а случайный — он чаще всего даёт гораздо более удачные результаты.

Итоги

Кратко изложим всё, что мы узнали про обучение нейросетей из сегодняшней лекции:

— используйте функцию активации ReLU;

— выполняйте предварительную обработку данных (для изображений: вычитайте среднее значение);

— масштабируйте веса при инициализации;

— применяйте пакетную нормализацию;

— следите за процессом обучения;

— оптимизируйте гиперпараметры с помощью случайного поиска.

На следующей лекции мы расскажем ещё о нескольких важных шагах обучения, узнаем про ансамблевые методы и разберёмся, как выполнять передачу обучения (transfer learning) и точную настройку (fine tuning). Пробовали ли вы самостоятельно обучать нейросети? Были ли у вас свои хитрости, или вы полагались на установки по умолчанию? Делитесь с нами успехами и не забывайте задавать вопросы, если что-то непонятно.

Следующие лекции (список будет дополняться по мере появления материалов):

С оригинальной лекцией можно ознакомиться на YouTube.

Лекция 6
Алгоритм симплекс метода

Симплекс метод (метод последовательного улучшения плана)

Метод предназначен для решения общей задачи линейного программирования.

Пусть имеем следующую задачу:

с системой ограничений следующего вида:

Разрешим эту систему относительно переменных x1, . xm:

Векторы условий, соответствующие x1, . xm, образуют базис. Переменные x1, . xm назовем базисными переменными. Остальные переменные задачи – небазисные.

Целевую функцию можно выразить через небазисные переменные:

Если приравнять небазисные переменные нулю: xm+1 = 0, xm+2 = 0, . xn = 0,

то соответствующие базисные переменные примут значения: .

Вектор с такими компонентами представляет собой угловую точку многогранника решений (допустимую) при условии, что (опорный план).

Теперь необходимо перейти к другой угловой точке с меньшим значением целевой функции. Для этого следует выбрать некоторую небазисную переменную и некоторую базисную так, чтобы после того, как мы “поменяем их местами”, значение целевой функции уменьшилось. Такой направленный перебор в конце концов приведет нас к решению задачи.

Пример 1.

Выберем в качестве базисных следующие переменные < x1, x2, x3> и разрешим систему относительно этих переменных. Система ограничений примет следующий вид:

Переменные < x4, x5>являются небазисными. Если взять x4 = 0 и x5 = 0, то получим угловую точку (опорный план): , которому соответствует .

Значение целевой функции можно уменьшить за счет увеличения x5. При увеличении x5 величина x1 также увеличивается, а x2 и x3 – уменьшаются. Причем величина x2 раньше может стать отрицательной. Поэтому, вводя в базис переменную x5, одновременно x2 исключаем из базиса. В результате после очевидных преобразований получим следующие выражения для новой системы базисных переменных и целевой функции:

Читайте также:
Лекция 6.5

Соответствующий опорный план: и .

Целевую функцию можно уменьшить за счет увеличения x4. Увеличение x4 приводит к уменьшению только x3. Поэтому вводим в базис переменную x4, а x3 исключаем из базиса. В результате получим следующие выражения для новой системы базисных переменных и целевой функции:

Соответствующий опорный план: и значение целевой функции: . Так как все коэффициенты при небазисных переменных в целевой функции неотрицательны, то нельзя уменьшить целевую функцию за счет увеличения x2 или x3, следовательно, полученный план является оптимальным.

Пример 2.

Пусть имеем задачу

Теперь вводим в базис переменную x1, a x4 исключаем из базиса. В результате получим следующие выражения для базисных переменных и целевой функции:

Опорный план: , значение целевой функции: .

Теперь можно заметить, что при увеличении x2 значения переменных x1 и x3 также возрастают, то есть при в допустимой области (задача не имеет решения).

Замечание

В процессе поиска допустимого плана может быть выявлена противоречивость системы ограничений.

Алгоритм симплекс метода

Формализованный алгоритм симплекс метода состоит из двух основных этапов:

  1. построение опорного плана;
  2. построение оптимального плана.

Проиллюстрируем алгоритм на рассмотренном ранее примере:

Она уже соответствует опорному плану (столбец свободных членов).

Построение оптимального плана.

Для того чтобы опорный план был оптимален, при минимизации целевой функции необходимо, чтобы коэффициенты в строке целевой функции были неположительными (в случае максимизации – неотрицательными). Т.е. при поиске минимума мы должны освободиться от положительных коэффициентов в строке .

Выбор разрешающего элемента. Если при поиске минимума в строке целевой функции есть коэффициенты больше нуля, то выбираем столбец с положительным коэффициентом в строке целевой функции в качестве разрешающего. Пусть это столбец с номером l.

Для выбора разрешающей строки (разрешающего элемента) среди положительных коэффициентов разрешающего столбца выбираем тот (строку), для которого отношение коэффициента в столбце свободных членов к коэффициенту в разрешающем столбце минимально:

arl – разрешающий (направляющий) элемент, строка r – разрешающая.

Для перехода к следующей симплексной таблице (следующему опорному плану с меньшим значением целевой функции) делается шаг модифицированного жорданова исключения с разрешающим элементом arl.

Если в разрешающем столбце нет положительных коэффициентов, то целевая функция неограничена снизу (при максимизации – неограничена сверху).

Шаг модифицированного жорданова исключения над симплексной таблицей. На месте разрешающего элемента ставится 1 и делится на разрешающий элемент.

Остальные элементы разрешающего столбца меняют знак на противоположный и делятся на разрешающий элемент.

Остальные элементы разрешающей строки делятся на разрешающий элемент.

Построение опорного плана.

Пусть необходимо решить задачу:

Введем дополнительные переменные, чтобы преобразовать ограничения-неравенства к равенствам. В ограничениях-равенствах дополнительные переменные должны быть нулевыми. Тогда система ограничений принимает вид:

где xn + i ≥ 0, i = 1, . p.

В качестве базисных переменных будем брать систему дополнительно введенных переменных. Тогда симплексная таблица для преобразованной задачи будет иметь следующий вид:

– x1– x2 ….– xs .…– xn1
a1,1 a1,2 …. a1,s…. a1,n b1
….….….…. ….….….….
am,1 am,2 …. am,s…. am,n bm
xm+1 am+1,1 am+1,2…. am+1,s …. am+1,n bm+1
….….….…. ….….….….
xm+p am+p,1 am+p,2…. am+p,s …. am+p,n bm+p
– c1 – c2 …. – cs …. – cn

Правила выбора разрешающего элемента при поиске опорного плана.

    При условии отсутствия “0-строк” (ограничений-равенств) и “свободных” переменных (т.е. переменных, на которые не наложено требование неотрицательности).
  • Если в столбце свободных членов симплексной таблицы нет отрицательных элементов, то опорный план найден.
  • Есть отрицательные элементы в столбце свободных членов, например bi ail, и этим самым определяем разрешающий столбец l. Если не найдем отрицательный ail, то система ограничений несовместна (противоречива).
  • В качестве разрешающей выбираем строку, которой соответствует минимальное отношение: , где r – номер разрешающей строки. Таким образом, arl – разрешающий элемент.
  • После того, как разрешающий элемент найден, делаем шаг модифицированного жорданова исключения с направляющим элементом arl и переходим к следующей симплексной таблице.
  • В случае присутствия ограничений-равенств и “свободных” переменных поступают следующим образом.
    • Выбирают разрешающий элемент в “0-строке” и делают шаг модифицированного жорданова исключения, после чего вычеркивают этот разрешающий столбец. Данную последовательность действий продолжают до тех пор, пока в симплексной таблице остается хотя бы одна “0-строка” (при этом таблица сокращается).
    • Если же присутствуют и свободные переменные, то необходимо данные переменные сделать базисными. И после того, как свободная переменная станет базисной, в процессе определения разрешающего элемента при поиске опорного и оптимального планов данная строка не учитывается (но преобразуется).
  • Вырожденность в задачах линейного программирования

    Рассматривая симплекс-метод, мы предполагали, что задача линейного программирования является невырожденной, т.е. каждый опорный план содержит ровно m положительных компонент, где m – число ограничений в задаче. В вырожденном опорном плане число положительных компонент оказывается меньше числа ограничений: некоторые базисные переменные, соответствующие данному опорному плану, принимают нулевые значения. Используя геометрическую интерпретацию для простейшего случая, когда n – m = 2 (число небазисных переменных равно 2), легко отличить вырожденную задачу от невырожденной. В вырожденной задаче в одной вершине многогранника условий пересекается более двух прямых, описываемых уравнениями вида xi = 0. Это значит, что одна или несколько сторон многоугольника условий стягиваются в точку.

    Читайте также:
    Лекция 3.5.2

    Аналогично при n – m = 3 в вырожденной задаче в одной вершине пересекается более 3-х плоскостей xi = 0.

    В предположении о невырожденности задачи находилось только одно значение , по которому определялся индекс выводимого из базиса вектора условий (выводимой из числа базисных переменной). В вырожденной задаче может достигаться на нескольких индексах сразу (для нескольких строк). В этом случае в находимом опорном плане несколько базисных переменных будут нулевыми.

    Если задача линейного программирования оказывается вырожденной, то при плохом выборе вектора условий, выводимого из базиса, может возникнуть бесконечное движение по базисам одного и того же опорного плана. Так называемое, явление зацикливания. Хотя в практических задачах линейного программирования зацикливание явление крайне редкое, возможность его не исключена.

    Один из приемов борьбы с вырожденностью состоит в преобразовании задачи путем “незначительного” изменения вектора правых частей системы ограничений на величины εi, таким образом, чтобы задача стала невырожденной, и, в то же время, чтобы это изменение не повлияло реально на оптимальный план задачи.

    Чаще реализуемые алгоритмы включают в себя некоторые простые правила, снижающие вероятность возникновения зацикливания или его преодоления.

    Пусть переменную xj необходимо сделать базисной. Рассмотрим множество индексов E, состоящее из тех i, для которых достигается . Множество индексов i, для которых выполняется данное условие обозначим через E. Если E состоит из одного элемента, то из базиса исключается вектор условий Ai (переменная xi делается небазисной). Если E состоит более чем из одного элемента, то составляется множество E1, которое состоит из , на которых достигается . Если E1 состоит из одного индекса k, то из базиса выводится переменная xk. В противном случае составляется множество E2 и т.д.

    Практически правилом надо пользоваться, если зацикливание уже обнаружено.

    Лекция 6. Дифференциальные уравнения 1-го порядка. Часть 1

    Сайт: Навчальний сайт ХНАДУ
    Курс: Вища Математика (2 семестр) Вишневецький А.Л.
    Книга: Лекция 6. Дифференциальные уравнения 1-го порядка. Часть 1
    Надруковано: Гість
    Дата: понеділок 15 листопад 2021 10:43

    Зміст

    • 1.1 Введение
    • 1.2 Дифференциальные уравнения 1-го порядка
    • 1.3 Дифференциальные уравнения с разделяющимися переменными
    • 2.1 Однородные дифференциальные уравнения

    1.1 Введение

    Описание многих физических процессов приводит к уравнениям, в которые входят производные или (что, по существу, то же) дифференциалы неизвестной функции. Такие уравнения называются дифференциальными уравнениями (ДУ). Обозначим неизвестную функцию y ( x ) , а её производные y’ ( x ) , y” ( x ) и т.д. (мы рассмотрим лишь функции, зависящие от одной переменной). Порядок старшей производной функции y ( x ) , входящей в дифференциальное уравнение, называется порядком этого ДУ. Например, ДУ имеет порядок 1 (т.к. в уравнение входит лишь первая производная неизвестной функции y ( x ) ), ДУ y” ( x ) – y’ ( x ) – 3 x = 0 – порядок 2 (старшая производная – вторая), а ДУ y”’ ( x ) = 2 – порядок 3.

    Приведем примеры физических процессов, описываемых ДУ.

    1. Скорость радиоактивного распада вещества прямо пропорциональна массе y ( x ) этого вещества, где x – время. Обозначая коэффициент пропорциональности через k , получаем уравнение 1-го порядка

    В дальнейшем мы для краткости часто будем опускать перемен­ную x , т.е. будем писать y вместо y ( x ) , y ‘ вместо y’ ( x ) и т.д.

    2. Падение тела с небольшой высоты на Землю без учета сопротивления воздуха описывается уравнением 2-го порядка

    где g ≈ 9,8 м/сек 2 – ускорение свободного падения, y – высота тела над Землей, x – время.

    3. Падение тела с большой высоты на Землю без учета сопротивления воздуха описывается уравнением 2-го порядка

    где y – высота тела над Землей, R – радиус Земли.

    Определение . Дифференциальным уравнением n-го порядка называется уравнение вида

    где F – функция, x – независимая переменная, y – неизвестная функ­ция от x , y’ – её первая производная, …, y (n) – n‑ая производная.

    Определение . Функция y = g ( x ) называется решением дифференциального уравнения, если подстановка y = g ( x ) в уравнение обращает его в тождество.

    График решения ДУ называется интегральной кривой.

    1.2 Дифференциальные уравнения 1-го порядка

    ДУ 1-го порядка, согласно определению, имеет вид

    • входит первая производная y’ ( x )
    • могут входить переменная x и неизвестная функция y ( x )
    • не входят стар­шие производные y’ ( x ) , y” ( x ) , ….

    Как правило, мы будем рассматривать уравнения 1-го порядка, которые можно привести к виду

    где y = y ( x ) – неизвестная функция, f ( x, y ) – известная функция.

    Примеры уравнений 1-го порядка:

    1) Уравнение y’ ( x ) = 2 x . Его решение y = x 2 , т.к. ( x 2 )’ = 2 x . Это же уравнение имеет и другие решения: y = x 2 + 1, y = x 2 + 2 и вообще y = x 2 + C для любого числа C .

    Как мы видели в примере 1), решение ДУ может зависеть от произвольной постоянной C .

    Определение . Решение y = g ( x , C ) уравнения (1.1), где C – произвольная постоянная, называется общим решением этого уравнения.

    Читайте также:
    Лекция 3.4

    Определение . Решение, получаемое из общего решения при некотором фиксированном значении постоянной C , называется частным решением.

    В примере 1) решение y = x 2 + C является общим, а решения y = x 2 , y = x 2 + 1 – частными.

    Для нахождения частного решения используются начальные условия.

    Начальное условие для уравнения (1.1) имеет вид y ( x ) = y , где x , y – данные числа. Иначе говоря, начальное условие задает значение y решения уравнения при данном значении x = x . На языке геометрии это значит, что интегральная кривая y ( x ) проходит через данную точку ( x , y ) плоскости xOy .

    Например, рассмотренное выше уравнение y’ ( x ) = 2 x с начальным условием y ( 0 ) = 1 имеет частное решение y = x 2 + 1, поскольку ( x 2 + 1)’ = 2 x и y ( 0 ) = 0 2 + 1 =1.

    ДУ вместе с начальным условием называется задачей Коши.

    1.3 Дифференциальные уравнения с разделяющимися переменными

    Дифференциальные уравнения с разделяющимися переменными – это уравнения, которые можно привести к виду

    План решения уравнения (1.2):

    1) Рассматривая как дробь, разделить переменные: умножая (1.2) на dx и деля на h(y) , получаем

    2) Интегрировать обе части равенства:

    После интегрирования получим равенство вида

    общий интеграл уравнения (1.2). Если из последнего равенства удается найти y , получаем общее решение уравнения.

    Решить ДУ – значит найти его общее решение или общий интеграл, а если задано и начальное условие – найти частное решение ДУ, удовлетворяющее этому условию. Оно используется, чтобы найти постоянную , входящую в общее решение.

    Пример. Найти общее решение уравнения y ‘ = 3 x 2 .

    Решение. Так как , то уравнение можно записать в виде

    т.е. в виде (1.2) с f( x ) = 3 x 2 , h(y) = 1. Чтобы разделить переменные, умножаем на dx :

    Переменные разделены. Теперь интегрируем обе части:

    Это общее решение.

    2.1 Однородные дифференциальные уравнения

    Определение. Функция f( x , y ) называется однородной (нулевого измерения), если f(t x , ty ) = f( x , y ) для любого числа t ≠ 0.

    Иначе говоря, функция f( x , y ) однородная, если она не изменяется при умножении x и y на одно и то же число t ≠ 0. Например, функция – однородная, т.к.

    Функция f( x , y ) однородная, если ее можно представить как функцию одного переменного . Действительно, при из f( x , y ) = f(t x , ty ) получаем , а это функция одного переменного . В последнем примере, деля числитель и знаменатель на x , получим:

    Последнее выражение является функцией от , поэтому мы еще раз проверили, что f( x , y ) – однород­ная функция.

    Однородными называются дифференциальные уравнения (ДУ), которые можно привести к виду y ‘ = f( x , y ) , где f( x , y ) – однородная функция.

    Для решения однородного ДУ вводят новую неизвестную функцию u переменного x : . Тогда y = u · x , y’ = u’ · x + u x’ = u’ x + u . После замены

    получаем уравнение с разделяющимися переменными относительно u . Решаем его, а затем находим y = x u .

    Пример. Найти частное решение ДУ , удовлетворяющее начальному условию .

    Решение. Так как правая часть уравнения является функцией от , то данное уравнение – однородное. Пусть . Подставим y и y ‘ из (2.1) в исходное уравнение, а затем упростим:

    Это уравнение с разделяющимися переменными. Разделим переменные (делим на x sin u , умножаем на d x ) и проинтегрируем:

    где – постоянная интегрирования. Пользуясь свойствами логариф­мов, получим

    Так как y = u · x , то, умножая на x , получаем общее решение y = 2 x arctg ( C x ) . Используя начальное условие, находим C :

    Подставляя C = 1 в общее решение, получим ответ: y = 2· x arctg x.

    ТВЗ Лекции 4,5,6 / Лекция № 6.1 Усиление основания

    Технология возведения зданий и сооружений.

    Необходимость в повышении прочности оснований фундаментов существующих зданий и сооружений может вызываться различными причинами, к которым можно отнести:

    – снижение прочности оснований в процессе эксплуатации;

    – неправильный учет свойств грунта основания при проектировании;

    – увеличение нагрузок на основание при реконструкции;

    – ведение строительных и взрывных работ вблизи здания;

    – влияние динамических воздействий;

    – аварийные ситуации и другие причины.

    Усиление оснований существующих зданий выполняют следующими способами:

    – глубинным уплотнением грунта;

    – заменой слабого грунта;

    – включением в основание элементов повышенной жесткости.

    Упрочнение основания существующего здания или сооружения позволяет передать на основание возрастающие нагрузки при реконструкции, в некоторых случаях без замены или усиления фундаментов и без выполнения земляных работ по их отрывке.

    Сущность химических способов состоит в том, что в грунт через предварительно погруженные перфорированные трубы (инъекторы) нагнетают маловязкие растворы. Находясь в грунте, растворы вступают в химическую реакцию с грунтом и, отверждаясь, улучшают химические свойства основания.

    Химические способы делятся на две группы, к первой относятся способы, использующие силикатные растворы и их производные, ко второй – способы, применяющие органические полимеры (акриловые, карбомидные, резорцинформальдегидные, фурановые смолы и т.п.).

    Наиболее распространенные имеют способы силикатизации . Материалом для силикатизации является жидкое стекло – коллоидный раствор силиката натрия.

    При однорастворной силикатизации в грунт инъецируется гелеобразующий раствор, состоящий из двух или трех компонентов: растворы силиката натрия и отверждающего реагента (раствор кислот, органических составов). В результате протекающей реакции грунт цементируется гелем кремниевой кислоты.

    При двухрастворной силикатизации процесс закрепления сводится к поочередному нагнетанию в грунт раствора силиката натрия и раствора хлористого кальция. В процессе взаимодействия растворов образуется гидрогель кремниевой кислоты. Песок после инъекции становится водонепроницаемым.

    Читайте также:
    Лекция 4.6

    При газовой силикатизации в качестве отвердителя силиката натрия используют углекислый газ. Газ нагнетают в грунт для его предварительной активизации. После этого инъецируют силикат натрия, а затем в грунт подают углекислый газ. Способ применяется для песчаных и просадочных лессовых грунтов, а также грунтов с высоким содержанием органических веществ. Закрепленные пески приобретают прочность 0,8…1,5 МПа, а лессовые грунты 0,8…1,2 МПа.

    При электросиликатизации используется комбинированное применение постоянного электрического тока и силикатных растворов. Способ предназначен для закрепления переувлажненных мелкозернистых грунтов и супесей, а также лессовых грунтов, в которых жидкое стекло проникает с трудом.

    При аэросиликатизации грунтов используют сжатый воздух, который подают в грунт вместе с закрепляющим раствором жидкого стекла. Подача сжатого воздуха позво-

    Технология возведения зданий и сооружений.

    ляет получить в грунте радиально направленные от инъектора лучеобразные участки закрепленного грунта.

    При больших объемах закачки тампонажных материалов применяют глинистосиликатные растворы, представляющие собой смеси водных растворов высокодисперсных глин с небольшой добавкой силиката натрия. Силикат натрия инициирует возникновение в порах грунта эластичного геля, обеспечивающего водонепроницаемость грунтового массива.

    К другим химическим методам относятся аммонизация и смолизация .

    При аммонизации в грунт под небольшим давлением нагнетается газообразный аммиак. Метод позволяет придать лессовым грунтам свойства непросадочности.

    При смолизации в грунты инъецируются водные растворы синтетических смол (карбомидных, эпоксидных, фурановых и др.) вместе с отвердителями (кислотами, кислыми солями). После взаимодействия с отвердителями смола полимеризуется. Смолизация используется при закреплении песчаных с коэффициентом фильтрации 0,5…45 м/сут. и лессовых грунтов. Грунты становятся водонепроницаемыми и имеют прочность на сжатие до 1…5 МПа.

    Выбор способа и зон химического закрепления грунта зависит от характеристики основания, формы и размеров фундамента, действующих нагрузок и свойств грунта. Зоны закрепления в плане могут быть ленточными, сплошными, прерывистыми и кольцевыми (рис. 1).

    Рисунок 1. Зоны химического закрепления грунтов оснований:

    а – ленточная; б – сплошная; в – столбчатая; г – кольцевая.

    По характеру расположения инъекторов у фундамента закрепление бывает верти-

    кальное, наклонное, горизонтальное и комбинированное (рис. 1).

    Рисунок 2. Варианты расположения инъекторов при закреплении грунтов оснований: 1 – фундамент; 2 – инъектор; 3 – зона закрепления; 4 – шахта.

    К физико-химическим способам закрепления грунтов относится цементация, грунтоцементация, битуминизация и глинизация.

    Технология возведения зданий и сооружений.

    При цементации в грунт через инъекторы нагнетается цементный, цементнопесчаный или цементно-глинистый раствор. Метод применяют для закрепления песчаных, крупнообломочных грунтов и трещиноватых скальных пород.

    При грунтоцементации для укрепления оснований устраивают грунтоцементные сваи. Для устройства свай, грунт в пробуриваемой скважине перемешивается с вяжущим материалом без выемки его из скважины. Метод применяется для закрепления слабых грунтов при возведении вблизи эксплуатируемых зданий новых, создании подземных конструкций в слабых грунтах, устройстве противофильтрационных завес и др.

    При глинизации для заполнения скважин используют глинистые растворы. Применяется в трещиноватых породах.

    При битуминизации в качестве инъецируемого вещества используют разогретый битум или холодную битумную эмульсию. Способ рекомендуется для песчаных грунтов с коэффициентами фильтрации 10…50 м/сут. Из-за сложности и не экологичности технологии метод применяется очень ограниченно.

    Термическое закрепление грунтов применяется при закреплении просадочных грунтов. В пробуренных в грунте скважинах сжигают газообразное, жидкое или твердое топливо. Одновременно в скважину подают воздух. Обжиг производят при температуре 400…800 °С в течение 5…10 дней. Вокруг скважины образуется столб закрепленного грунта диаметром 1,5…3,0 м с прочностью до 1,2 МПа.

    Рисунок 3. Термическое закрепление грунтов: 1- форсунка; 2 – распорные кольца; 3 – грунт; 4 – кран; 5 – эластичная оболочка; 6 – термопара; 7 – усиляемый фундамент.

    Иногда в практике применяется электротермический способ обжига грунта. В качестве источника используются нихромовые электронагреватели. Скважины во всех случаях могут пробуриваться вертикально, наклонно и горизонтально.

    Работы по усилению оснований методами инъецирования должны выполняться в определенной последовательности:

    1. Перед производством работ по закреплению грунтов следует:

    – уточнить расположение подземных коммуникаций, а также расположение и состояние сооружений, находящихся вблизи места закрепления;

    – подготовить бригаду исполнителей, предварительно прошедших курс обучения технологии производства работ;

    – обеспечить наличие предусмотренного проектом комплекта оборудования и материалов;

    – выполнить контрольное закрепление грунта и провести его испытания.

    2. Закрепление грунтов включает последовательное выполнение следующих видов работ:

    – подготовительных и вспомогательных, включая приготовление закрепляющих растворов;

    – бурение и оборудование скважин, погружение в грунт инъекторов;

    Технология возведения зданий и сооружений.

    – нагнетание закрепляющих реагентов в грунты;

    – извлечение инъекторов и заделка инъекционных скважин;

    Подготовительные и вспомогательные работы выполняют до начала основных работ. К ним относятся: подготовка и планировка территории; подводка электроэнергии, горячего и холодного водоснабжения, канализации; организация мониторинга за осадками фундаментов; размещение на площадке химреагентов и материалов; оборудование стационарного узла приготовления растворов (при объеме закрепления более 10 тыс. м³ грунта); разметка мест погружения инъекторов или бурения инъекционных скважин; согласование возможности проведения работ с организациями, ответственными за подземные коммуникации; приготовление закрепляющих растворов рабочих концентраций; выполнение контрольных работ по закреплению грунтов.

    Читайте также:
    Лекция 1.4.1

    Для повышения прочности оснований за счет уплотнения грунтов используются механические способы : устройство грунтовых свай, включение в основание жестких элементов.

    Способ устройства грунтовых свай основан на погружении штампов, которые образуют скважины с вытеснением грунта радиально в стороны. В результате этого грунт вокруг скважины уплотняется. Погружение штампа выполняется продавливанием, забивкой, вибрированием. В отформованную скважину засыпают местный грунт или песок, песчано-гравийную смесь, щебень и снова ее отформовывают. Операции повторяют до тех пор, пока усредненная плотность грунтового массива не станет равной требуемой. Наибольший эффект уплотнения достигается при шахматном расположении скважин. Расстояние между осями скважин зависит от диаметра уплотняющего органа и требуемого коэффициента уплотнения.

    Глубинное уплотнение может быть выполнено в виде вертикальных или наклонных скважин, может быть принято комбинированное расположение скважин (рис. 4).

    Рисунок 4. Варианты устройства скважин для грунтовых свай:

    а – вертикальных; б – наклонных; в – комбинированных; 1 – старый фундамент; 2 – скважина; 3, 4 – уплотненный грунт; 5 – грунт основания; 6 – прочный грунт.

    Усиление корневидными сваями заключается в устройстве под фундаментами разветвленных стержневых опор, которые передают нагрузку на более прочные слои грунта (рис. 5). Корневидные сваи выполняют под различными наклонами к вертикали с помо-

    Технология возведения зданий и сооружений.

    щью буровых установок, например, вращательного бурения, которые позволяют пробуривать скважины через расположенные выше стены и фундаменты.

    Рисунок 5. Усиление фундамента корневидными сваями:

    1 – усиляемый фундамент; 2 – стена; 3 – корневидная свая.

    Буровые установки имеют небольшие габариты и их можно применять в стесненных условиях, даже в подвальных помещениях. Благодаря таким преимуществам устройство корневидных свай не препятствует нормальной эксплуатации реконструируемых зданий и сооружений.

    Для обеспечения устойчивости стенок в процессе бурения скважину заполняют глинистым раствором.

    В готовые скважины устанавливают каркасы, состоящие из отдельных секций, стыкуемых сваркой. Длина секций лимитируется высотой помещения, в котором проводят работы. Каркас оборудуют фиксаторами, которые предупреждают отклонение от оси скважины.

    После установки арматурного каркаса или одновременно с этой операцией в скважину опускают инъекционную трубу диаметром 25—50 мм, через которую нагнетают це- ментно-песчаный раствор, обжимающий стенки скважины.

    При нагнетании цементно-песчаного раствора в скважину происходит вытеснение глинистого раствора на поверхность. После заполнения скважины “раствором инъекционная труба извлекается, на верхнюю секцию обсадных труб навинчивается крышка со штуцером для рукава к растворонасосу или компрессору и свежеуложенный раствор опрессовывается по мере извлечения обсадных труб. Регулируя давление и расход раствора, можно получить уширение в свае. При применении бентонитового раствора опрессовку выполняют через инъекционную трубу (рис. 6).

    Рисунок 6. Схема инъецирования в скважины цементно-песчаного раствора: I – бурение скважин; II – установка арматурного каркаса; III – бетонирование скважины; IV – готовая скважина; 1 – рабочий орган буровой установки; 2 – обсадная труба; 3 – арматурный каркас; 4 – цементнопесчаный раствор.

    Рекомендуется инъекционный раствор следующего состава компонентов по массе:

    цемент — песок — вода 1: (1. 1.5): (0,5. 0,7).

    Усиление оснований может быть выполнено путем устройства по периметру фундамента (ленточного, столбчатого) ограждающей стенки из шпунта, труб и свай. Стенки глубиной 2,5—3 ширины фундамента должны располагаться на минимальном расстоянии от фундамента, как это позволяет технология производства работ.

    Коммутируемые сети

    6.4. Протокол охватывающего дерева STP

    Многоуровневая схема сети ( рис. 6.1в) характеризуется избыточными устройствами и соединениями, что обеспечивает высокую надежность . Однако избыточные соединения могут приводить к образованию маршрутных петель, что, в свою очередь , может привести к зацикливанию передаваемых пакетов, широковещательному шторму и падению сети.

    Из рис. 6.7 следует, что от узла Hosti до Hostj существует 5 различных путей (1, 2, 3, 4, 5).

    Множество путей могут образовывать маршрутные петли ( рис. 6.8), приводящие к зацикливанию кадров в какой-либо петле.

    Поэтому к топологии сети предъявляются два противоположных требования:

    • с одной стороны, для повышения надежности необходимы избыточные устройства и маршруты (соединения);
    • с другой стороны, топология сети должна быть древовидной, т.е. не должна иметь маршрутных петель.

    Для разрешения этих противоречивых требований был разработан протокол охватывающего (покрывающего) дерева (Spanning-Tree Protocol – STP), который при наличии избыточных физических соединений прокладывает логические маршруты так, чтобы топология сети была древовидной. Алгоритм STA , реализующий протокол STP , автоматически выключает избыточные маршруты, образующие маршрутные петли. Избыточные соединения могут быть автоматически активизированы при выходе из строя соединений основного маршрута.

    Таким образом, коммутаторы используют алгоритм STA , чтобы перевести в резервное состояние избыточные пути, которые не соответствуют иерархической древовидной топологии. Запасные избыточные пути задействуются, если основные выходят из строя. Протокол STP используется для создания логической иерархии без петель, т.е. при наличии физических петель, логические петли отсутствуют ( рис. 6.9).

    При этом топология сети будет древовидной и каждый конечный узел будет характеризоваться единственным путем до главного или корневого (root) коммутатора К ( рис. 6.9). Причем, расстояние от каждого узла до корневого коммутатора будет минимальным.

    Читайте также:
    Лекция 5.5

    Для работы STP каждый коммутатор периодически каждые 2 секунды рассылает служебные Hello-кадры ( Bridge Protocol Data Unit – BPDU) во все свои порты, чтобы позволить другим коммутаторам знать о его существовании. Кадры BPDU содержат идентификаторы коммутаторов ( bridge ID – BID) и портов, эта информация используется, чтобы выбрать корневой коммутатор сети. Расстояние до корневого коммутатора также передается в кадрах BPDU. Для выбора корневого коммутатора администратор может устанавливать коммутаторам приоритет (также как в протоколе OSPF при выборе маршрутизатора DR). При одинаковых приоритетах выбор производится на основании идентификаторов BID . Коммутатор с наименьшим значением BID становится корневым.

    В исходном состоянии каждый коммутатор считает себя корневым. Когда приходит служебный Hello- кадр BPDU с меньшим (с лучшим) значением идентификатора BID , коммутатор обновляет свое состояние и рассылает обновленные кадры BPDU другим коммутаторам. Если же приходит кадр BPDU с худшим (с большим) значением BID , то кадр отбрасывается, состояние коммутатора не модифицируется.

    Идентификатор коммутатора BID представляет собой число размером 8 байт , где 6 младших байт отображают МАС- адрес блока управления коммутатора, а два старших байта – задаваемый администратором приоритет, который может изменяться от 1 до 65536 ( по умолчанию 32768). Причем, при использовании виртуальных локальных сетей VLAN два старших байта приоритета разделены на два поля: поле собственно приоритета и поле расширения идентификатора ID ( рис. 6.10).

    Поле расширения идентификатора ID размером в 12 бит служит для идентификации VLAN . При этом общее значение приоритета (два старших байта) изменяется кратно 4096. Таким образом, задав приоритет, администратор определит корневой коммутатор . При одинаковых значениях приоритета и одинаковых расширениях ID идентификатора BID будет определяться МАС-адресом блока управления коммутатора. С учетом того, что по умолчанию управляющей является VLAN1, то приоритет по умолчанию будет 32769.

    Задание приоритета некоторому коммутатору Switch-A1 , который администратор решает сделать корневым, производится по команде:

    Корневым можно сделать коммутатор также по следующей команде:

    Лекция 6.1.1

    МОДУЛЬ 3 «Электростатика. Магнитостатика. Постоянный ток»

    Неделя 1-2

    Лекция 1. Электрическое поле системы неподвижных зарядов в вакууме. Теорема Гаусса для электростатического поля.

    Электрический заряд. Закон Кулона. Напряжённость электростатического поля. Силовые линии. Принцип суперпозиции и его применение к расчёту поля системы неподвижных зарядов. Поток вектора напряжённости электрического поля. Теорема Гаусса в интегральной и дифференциальной формах в вакууме и её применение для расчёта электростатических полей.

    ОЛ-1(§1.1- 1.6), ОЛ-4(§1.1- 1.5, §1.11, §1.13-1.14), ОЛ-5(§1.1- 1.4), ДЛ-11.

    Лекция 2. Работа и потенциал электростатического поля.

    Работа электростатического поля при перемещении зарядов. Циркуляция вектора напряжённости. Связь напряжённости и потенциала. Уравнение Пуассона.

    ОЛ-1(§1.7- 1.8), ОЛ-4(§1.6, 1.8, 1.12), ОЛ-5(§1.5- 1.6), ДЛ-11.

    Семинар 1. Электростатическое поле в вакууме. Принцип суперпозиции. Проводники в электростатическом поле.

    Ауд.: ОЛ-8 задачи 2.18, 2.27, 2.36, 2.69 или ОЛ-9 задачи 3.13, 3.20, 3.28, 3.61.

    Дома: ОЛ-8 задачи 2.17, 2.44 или ОЛ-9 задачи 3.12, 3.36.

    Неделя 3-4

    Лекция 3. Электростатическое поле в диэлектрике.

    Электрический диполь в электростатическом поле. Поляризация диэлектриков. Электростатическое поле в диэлектрике. Поляризованность. Свободные и связанные заряды. Связь поляризованности с плотностью связанных зарядов. Вектор электрического смещения. Обобщение теоремы Гаусса. Поле на границе раздела диэлектриков.

    ОЛ-1(§2.1- 2.4), ОЛ-4(§1.9, 2.1- 2.7), ОЛ-5(§1.7, 3.1- 3.6), ДЛ-11.

    Лекция 4. Электрическое поле заряженных проводников. Энергия электростатического поля. Поле вблизи поверхности проводника. Электроёмкость проводников и конденсаторов. Ёмкости плоского, цилиндрического и сферического конденсаторов. Энергия системы неподвижных зарядов. Энергия заряженного проводника, конденсатора. Плотность энергии электростатического поля.

    ОЛ-1(§3.1- 3.4), ОЛ-4(§3.1- 3.4, 4.1- 4.3), ОЛ-5(§2.1- 2.3, 2.6, 4.1- 4.3), ДЛ-11.

    Семинар 2. Теорема Гаусса. Поле в диэлектрике.

    Ауд.: ОЛ-8 задачи 2.32, 2.33, 2.93, 2.96 или ОЛ-9 задачи 3.23, 3.25, 3.82, 3.85.

    Дома: ОЛ-8 задачи 2.37, 2.99 или ОЛ-9 задачи 3.29, 3.89

    Тему «Электрический ток» студенты прорабатывают самостоятельно. При этом рассматривают следующие вопросы: носители тока в средах, сила и плотность тока, уравнение непрерывности, электрическое поле в проводнике с током, сторонние силы, закон Ома и Джоуля – Ленца в интегральной и дифференциальной формах.

    ОЛ-1(§4.1- 4.7), ОЛ-4(§5.1- 5.8), ОЛ-5(§5.1- 5.5), ДЛ-11.

    Неделя 5-6

    Лекции 5. Магнитное поле в вакууме.

    Вектор индукции и напряжённости магнитного поля. Закон Био-Савара-Лапласа. Принцип суперпозиции магнитных полей. Поле прямого и кругового токов. Поток вектора магнитной индукции. Теорема Гаусса для магнитного поля. Теорема о циркуляции вектора индукции магнитного поля в интегральной и дифференциальной формах. Расчёт магнитного поля тороида и соленоида.

    ОЛ-1(§5.1- 5.5), ОЛ-4(§6.1- 6.3, 6.12), ОЛ-5(§6.2- 6.5), ДЛ-11.

    Лекция 6. Движение заряженных частиц в электрическом и магнитном полях.

    Сила Лоренца. Движение заряженной частицы в электрическом и магнитном полях. Ускорение заряженных частиц. Эффект Холла.

    ОЛ-1(§6.1- 6.7), ОЛ-4(§6.5, 10.1- 10.5, 11.3), ДЛ-11.

    Семинар 3. Электроёмкость, конденсаторы, энергия электростатического поля.

    Ауд.: ОЛ-8 задачи 2.115, 2.119, 2.135, 2.152 или ОЛ-9 задачи 3.105, 3.111, 3.129, 3.146 .

    Читайте также:
    Лекция 5.6

    Дома: ОЛ-8 задачи 2.116, 2.149 или ОЛ-9 задачи 3.108, 3.143.

    Неделя 7-8

    Лекция 7. Проводники с током в магнитном поле.

    Закон Ампера. Магнитный момент контура с током. Контур с током в магнитном поле. Работа по перемещению проводника с током в магнитном поле.

    ОЛ-1(§7.1- 7.3), ОЛ-4(§6.6, 6.8- 6.10), ОЛ-5 (§6.6- 6.8), ДЛ-11.

    Лекция 8. Магнитное поле в веществе.

    Намагниченность вещества. Вектор напряжённости магнитного поля и его связь с векторами индукции и намагниченности. Магнитная восприимчивость и магнитная проницаемость вещества. Теоремы о циркуляции векторов напряжённости и намагниченности в интегральной и дифференциальной формах. Диамагнетики, парамагнетики и ферромагнетики. Поле на границе раздела магнетиков.

    ОЛ-1(§8.1- 8.7), ОЛ-4(§7.1- 7.9), ОЛ-5(§7.1- 7.6), ДЛ-11.

    Семинар 4. Магнитное поле токов.

    Ауд.: ОЛ-8 задачи 2.234, 2.242, 2.250, 2.293 или ОЛ-9 задачи 3.228, 3.233, 3.239, 3.281.

    Дома: ОЛ-8 задачи 2.239, 2.258 или ОЛ-9 задачи 3.231, 3.249.

    Неделя 9-10

    Лекция 9. Электромагнитная индукция. Закон Фарадея. Правило Ленца. Самоиндукция. Взаимная индукция. Вихревые токи. Плотность энергии магнитного поля. Энергия и силы в магнитном поле. Магнитное давление.

    ОЛ-1(§9.1- 9.6), ОЛ-4(§8.1- 8.8), ОЛ-5(§9.1- 9.7), ДЛ-11.

    Лекция 10. Уравнения Максвелла для электромагнитного поля. Основные положения электромагнитной теории Максвелла. Вихревое электрическое поле. Ток смещения. Закон полного тока. Уравнения Максвелла в интегральной и дифференциальной формах.

    ОЛ-1(§10.1- 10.4), ОЛ-4(§9.1- 9.3), ОЛ-5(§10.1- 10.3), ДЛ-11.

    Семинар 5. Движение заряженных частиц в магнитных и электрических полях. Электромагнитная индукция, энергия магнитного поля.

    Ауд.: ОЛ-8 задачи 2.417, 2.325, 2.329, 2.374 или ОЛ-9 задачи 3.401, 3.310, 3.314, 3.358.

    Дома: ОЛ-8 задачи 2.377, 2.375 или ОЛ-9 задачи 3.361, 3.359.

    МОДУЛЬ 4 « Уравнения Максвелла. Электромагнитные волны »

    Неделя 11-12

    Лекция 11. Электромагнитные волны.

    Волновое уравнение для электромагнитного поля, его общее решение. Скорость распространения электромагнитных волн. Энергия и импульс электромагнитного поля. Вектор Пойнтинга. Теорема Пойнтинга.

    ОЛ-3(§1.1- 1.2), ОЛ-5(§10.4- 10.5), ОЛ-6(§2.1- 2.5), ОЛ-7(§2.1- 2.5), ДЛ-11.

    Лекции 12. Электромагнитная природа света. Интерференция света.

    Шкала электромагнитных излучений. Оптическое излучение, его интенсивность. Интерференция электромагнитных волн. Расчёт интерференционной картины с двумя источниками. Пространственно-временная когерентность. Интерференция света в тонких плёнках. Интерференционные полосы равной толщины и равного наклона. Применение интерференции.

    ОЛ-3(§4.1- 4.5), ОЛ-6(§3.1, 4.1- 4.6), ОЛ-7(§3.1, 4.1- 4.6), ДЛ-11.

    Семинар 6. Электромагнитные волны.

    Ауд.: ОЛ-8 задачи 3.245, 3.249, 3.250, 3.253 или ОЛ-9 задачи 4.229, 4.233, 4.234, 4.254.

    Дома: ОЛ-8 задачи 3.243, 3.245 или ОЛ-9 задачи 4.227, 4.229.

    Тему «Взаимодействие электромагнитных волн с веществом» студенты прорабатывают самостоятельно. При этом рассматривают следующие вопросы: электронная теория дисперсии, нормальная и аномальная дисперсии, закон Бугера, рассеяние света.

    ОЛ-3(§7.1- 7.4), ОЛ-6(§7.1- 7.5), ОЛ-7(§7.1- 7.5), ДЛ-11.

    Неделя 13 -14

    Лекции 13. Электромагнитная природа света. Интерференция света.

    Шкала электромагнитных излучений. Оптическое излучение, его интенсивность. Интерференция электромагнитных волн. Расчёт интерференционной картины с двумя источниками. Пространственно-временная когерентность. Интерференция света в тонких плёнках. Интерференционные полосы равной толщины и равного наклона. Применение интерференции.

    ОЛ-3(§4.1- 4.5), ОЛ-6(§3.1, 4.1- 4.6), ОЛ-7(§3.1, 4.1- 4.6), ДЛ-11.

    Лекция 14. Дифракция света.

    Принцип Гюйгенса-Френеля. Метод зон Френеля. Дифракция от круглого отверстия и от круглого диска. Дифракция Фраунгофера от щели. Предельный переход от волновой оптики к геометрической. Дифракционная решётка. Спектральные характеристики дифракционных решёток. Дифракция рентгеновских лучей. Формула Вульфа – Бреггов. Понятие о рентгеноструктурном анализе.

    ОЛ-3(§5.1- 5.6), ОЛ-6(§5.1- 5.7), ОЛ-7(§5.1- 5.8), ДЛ-11.

    Семинар 7. Интерференция света.

    Ауд.: ОЛ-9 задачи 5.74, 5.82, 5.85, 5.91 или ОЛ-8 задачи 4.81, 4.87, 4.91, 4.97.

    Дома: ОЛ-8 задачи 4.86, 4.98 или ОЛ-9 задачи 5.80, 5.92.

    Неделя 15-16

    Лекция 15. Дифракция света.

    Принцип Гюйгенса-Френеля. Метод зон Френеля. Дифракция от круглого отверстия и от круглого диска. Дифракция Фраунгофера от щели. Предельный переход от волновой оптики к геометрической. Дифракционная решётка. Спектральные характеристики дифракционных решёток. Дифракция рентгеновских лучей. Формула Вульфа – Бреггов. Понятие о рентгеноструктурном анализе.

    ОЛ-3(§5.1- 5.6), ОЛ-6(§5.1- 5.7), ОЛ-7(§5.1- 5.8), ДЛ-11.

    Лекция 16. Поляризация света.

    Естественный и поляризованный свет. Закон Малюса. Закон Брюстера. Распространение электромагнитных волн в одноосных кристаллах. Двойное лучепреломление. Поляризация света при двойном лучепреломлении. Поляризационные призмы и поляроиды.

    ОЛ-3(§8.1- 8.4), ОЛ-6(§6.1- 6.3), ОЛ-7(§6.1- 6.3), ДЛ-11.

    Семинар 8. Дифракция и поляризация света.

    Ауд.: ОЛ-8 задачи 4.114, 4.118, 4.156, 4.180 или ОЛ-9 задачи 5.105, 5.109, 5.147, 5.171.

    Дома: ОЛ-8 задачи 4.154, 4.183 или ОЛ-9 задачи 5.145, 5.174.

    Неделя 17-18

    Лекция 17. Голография. Опорная и предметная световые волны. Запись и воспроизведение голограмм. Применение голографии.

    ОЛ-3(§6.1- 6.4), ОЛ-6(§5.9), ОЛ-7(§5.10), ДЛ-11.

    Лекция 18. Резервная.

    Семестр заканчивается экзаменом на всех факультетах

    Рейтинг
    ( Пока оценок нет )
    Понравилась статья? Поделиться с друзьями:
    Добавить комментарий

    ;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: