WWW.KONFERENCIYA.SELUK.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА - Конференции, лекции

 

Pages:   || 2 | 3 | 4 | 5 |   ...   | 7 |

«ВЫСОКОПРОИЗВОДИТЕЛЬНЫЕ ПАРАЛЛЕЛЬНЫЕ ВЫЧИСЛЕНИЯ НА КЛАСТЕРНЫХ СИСТЕМАХ Материалы Седьмой Международной конференции-семинара (Нижний Новгород, 26–30 ноября 2007 г.) Нижний Новгород ...»

-- [ Страница 1 ] --

Федеральное агентство по образованию

Нижегородский государственный университет

им. Н.И. Лобачевского

ВЫСОКОПРОИЗВОДИТЕЛЬНЫЕ

ПАРАЛЛЕЛЬНЫЕ ВЫЧИСЛЕНИЯ

НА КЛАСТЕРНЫХ СИСТЕМАХ

Материалы Седьмой Международной

конференции-семинара

(Нижний Новгород, 26–30 ноября 2007 г.)

Нижний Новгород

Издательство Нижегородского госуниверситета 2007 УДК 681.3.012:51 ББК 32.973.26–018.2:22 В 93 В 93 Высокопроизводительные параллельные вычисления на кластерных системах. Материалы Седьмой Международной конференции-семинара. – Нижний Новгород: Изд-во Нижегородского госуниверситета, 2007. 443 с.

ISBN 978-5-91326-068-0 Редакционная коллегия:

Р.Г. Стронгин (отв. редактор), В.П. Гергель (зам.отв. редактора), Д.И. Батищев, В.В. Воеводин, В.А. Гришагин, Ю.Г Евтушенко, Л.В. Нестеренко, Я.Д. Сергеев, Б.Н. Четверушкин, В.И. Швецов Сборник материалов Седьмой Международной конференции-семинара, состоявшейся в Нижегородском государственном университете им. Н.И. Лобачевского 26–30 ноября 2007 г., содержит доклады, посвященные теоретической и практической проблематике параллельных вычислений, ориентированных на использование современных многопроцессорных архитектур кластерного типа.

ISBN 978-5-91326-068-0 ББК 32.973.26–018.2: Конференция организована в рамках Инновационной образовательной программы ННГУ: Образовательно-научный центр «Информационно-телекоммуникационные системы:

физические основы и математическое обеспечение»

Поддержка конференции Российский фонд фундаментальных исследований Компания Intel Technologies Компания IBM Компания Т-Платформы © Нижегородский государственный университет им. Н.И. Лобачевского,

ПРЕДИСЛОВИЕ

26–30 ноября 2007 года Нижегородский государственный университет им. Н.И. Лобачевского (учредитель), Вычислительный центр РАН, Институт математического моделирования РАН при поддержке компании Интел и Нижегородского фонда содействия образованию и исследованиям провели в Нижнем Новгороде Седьмую Международную конференцию-семинар и Всероссийскую молодежную школу «Высокопроизводительные параллельные вычисления на кластерных системах».

Главной задачей проведения конференции и школы было обсуждение основных аспектов организации высокопроизводительных вычислений в кластерных компьютерных системах, активизации научно-практической деятельности исследователей в этой перспективной области развития современных средств вычислительной техники, обмен опытом учебно-образовательной деятельности при подготовке специалистов в области параллельных вычислений.

На конференции рассмотрены следующие вопросы параллельных вычислений:

принципы построения кластерных вычислительных систем;

методы управления параллельными вычислениями в кластерных системах;

параллельные алгоритмы решения сложных вычислительных задач;

программные среды и средства для разработки параллельных программ;

прикладные программные системы параллельных вычислений;

методы анализа и оценки эффективности параллельных программ;

подготовка специалистов в области параллельных вычислений.

Материалы сборника включают как доклады, так и тезисы докладов (публикуются частично в авторской редакции).

Проведение конференции поддержано грантом РФФИ № 07-01-06123.

СИСТЕМА СВЯЗИ НА ГРАФИЧЕСКОМ ПРОЦЕССОРЕ

Нижегородский государственный технический университет Введение Последние пять лет наблюдается значительный рост производительности процессоров графических плат. Начиная с года чистая вычислительная мощность графических плат превышает вычислительную мощность центрального процессора. Также стоит отметить, что темпы наращивания вычислительной мощности графических чипов значительно выше, чем ядер центральных процессоров. Почему же столь значительные вычислительные возможности не были использованы ранее для задач, отличных от обработки графики? На это есть множество причин. Во-первых, программирование графических чипов рассматривалось только с позиций обработки графики, поэтому для неграфических задач требовалось использовать графически ориентированный интерфейс программирования. Во-вторых, узкая специализация под обработку только графической информации позволяла применять вычислительные операции и хранение данных в памяти с малой точностью, что для графических приложений было приемлемо, а для задач расчётов и компьютерного моделирования – нет. Со временем точность выполнения вычислений и хранения численных значений увеличивалась, разрабатывались программы расчётов с использованием графического интерфейса программирования. Летом 2006 года компания AMD/ATI первая открыла неграфически ориентированный интерфейс программирования, в ноябре 2006 года следом последовала NVIDIA. С этого момента точность вычислений стала достаточной для многих задач, а использование неграфического программного интерфейса позволило заметно облегчить программирование.

Так как современные алгоритмы обработки сигналов для осуществления беспроводной связи требуют объёмных вычислений, которые обычно реализуются на ПЛИС, то использование мощного унифицированного оборудования, такого как современная видеокарта, выглядит очень привлекательно.

В докладе показано, каким образом можно использовать вычислительные возможности современных графических процессоров, на примере реализации системы связи MIMO.



Особенности архитектуры графических процессоров высокопараллельными вычислительными устройствами. Мы будем ориентироваться на графические процессоры серии G80 фирмы NVIDIA.

Большая производительность достигается за счёт использования массива мультипроцессоров, где каждый мультипроцессор состоит из набора SIMD (Single Instruction Multiple Data – одна инструкция, много данных) процессоров.

Пользовательский интерфейс организован таким образом, что пользователю необходимо распределять вычислительную нагрузку как по мультипроцессорам, так и по отдельным SIMD-процессорам каждого мультипроцессора.

Структурная схема описываемой модели вычислений представлена на рис. 1.

Рис. 1. Структурная схема модели вычислений на графических чипах G Схема работы программы на графическом процессоре следующая:

Из основной памяти компьютера в память графической карты загружается программа, созданная пользователем;

Пользователь задаёт количество блоков и потоков в каждом блоке (число потоков для всех блоков одинаково);

Программа одновременно исполняется всеми потоками каждого блока;

Определение, над какой частью данных работает каждый поток, осуществляется на основе номера блока и номера потока в блоке;

По завершении работы всех созданных потоков пользователь копирует результат вычислений из памяти графической платы в основную память компьютера.

Подход к написанию программ для графического процессора сильно отличается от подхода, применяемого при написании программ для последовательного процессора. При программировании с использованием множества потоков требуется тщательно планировать синхронизации параллельно исполняющихся потоков и эффективно использовать иерархию памяти, управление которой отчасти контролируется программистом (на графической плате присутствуют несколько модулей памяти большого объема с медленным доступом и несколько модулей памяти с быстрым доступом, но имеющих малый объем). При написании программ для последовательного процессора нет необходимости в синхронизации, так как исполняется только один поток программы. Контроль над использованием иерархической памяти полностью осуществляется компилятором, используемым при сборке программы.

Для эффективного использования данной системы необходимо переосмысление алгоритмов обработки данных. В докладе показано, каким образом можно реализовать симулятор MIMO-системы на графическом чипе.

Программирование протоколов беспроводной связи Современные беспроводные протоколы используют ресурсоёмкие алгоритмы обработки сигналов. Наибольшую нагрузку на вычислительную систему создают алгоритмы физического уровня (по модели открытых систем OSI), такие как алгоритмы демодулятора и декодера. Перенесение данных алгоритмов на графические (многоядерные) процессоры может позволить избавиться от специализированных и дорогих сигнальных процессоров. Для выяснения пригодности использования графических процессоров в реальных задачах обработки сигналов был разработан набор программ, позволяющих тестировать различные алгоритмы в условиях, приближенных к реальным. В данной системе трафик любого сетевого приложения, работающего на ОС Windows, можно направить на обработку через графический чип, на котором реализована система связи. Таким образом, разрабатываемые алгоритмы тестируются при использовании реальных приложений и моделей трафика.

Архитектура тестовой системы Принцип работы тестовой системы представлен на рис. 2. Здесь в качестве примера изображено взаимодействие двух обычных сетевых приложений, браузера и Web-сервера, запущенных на одном и том же компьютере и передающих сетевые пакеты через тестовую систему.

Рис. 2. Принцип работы системы связи, реализованной на графическом Система состоит из двух основных компонентов:

1. Приложение, работающее в режиме пользователя;

2. Драйвер сетевого устройства.

Основная проблема, стоявшая перед разработчиком, заключалась в перенаправлении трафика сетевых приложений, работающих под ОС Windows, на обработку графическим процессором. Было решено создать драйвер сетевой карты и сделать так, чтобы приложение посылало сетевые пакеты через этот драйвер. Также драйвер необходим и для того, чтобы передавать сетевые пакеты, пропущенные через разрабатываемую систему связи, обратно другому сетевому приложению, работающему под ОС Windows.

На рис. 2 можно видеть, что браузер через операционную систему передаёт данные драйверу сетевого устройства (экземпляр 1), а от второго экземпляра драйвера данные через операционную систему передаются Web-серверу.

Было бы удобно работать с графическим чипом напрямую из драйвера сетевого устройства и передавать данные от одного экземпляра драйвера другому, но использование возможностей графического чипа возможно лишь из режима пользователя, а драйвер работает в режиме ядра. Именно для этих целей в схему был введен еще один компонент – «Пользовательское приложение».

Пользовательское приложение взаимодействует с обоими экземплярами драйверов и управляет работой графического процессора. Так, данные, пришедшие от браузера, экземпляр драйвера перенаправляет пользовательскому приложению, которое, в свою очередь, отправляет их на обработку графическому процессору.

После того как графический процессор совершил необходимые преобразования над данными (например, помехоустойчивое кодирование, модуляция, симуляция влияния среды распространения, демодуляция, декодирование), данные передаются через экземпляр драйвера Web-серверу. Ответ Web-сервера следует в точности по обратному пути.





MIMO-симулятор В архитектуре тестовой системы, рассмотренной выше, «Пользовательское приложение» является тем звеном передачи трафика, в которое возможно встраивание любых алгоритмов обработки информации канального и физического уровней. В качестве такого алгоритма был выбран алгоритм модулятора-демодулятора MIMO (Multiple Input – Multiple Output) системы.

Реализованный на графическом чипе алгоритм, использующий MQAM модуляцию, был протестирован на корректность работы. На рисунке 3 изображены кривые помехоустойчивости, полученные при использовании алгоритмов, реализованных на центральном процессоре и графическом процессоре.

CPU GPU

Рис. 3. Зависимость числа ошибок на бит переданной информации от Видим, что кривые помехоустойчивости для симулятора, работающего на центральном процессоре, и симулятора, исполняющегося на графическом процессоре, совпадают. Это означает, что точность вычислений у обоих симуляторов одинакова.

Перейдем к сравнению скоростей работы обоих симуляторов.

Время исполнения при передаче которых имеет размер 192 бита, с Время исполнения при передаче которых имеет размер 256 бит, с Время исполнения при передаче которых имеет размер 512 бит, с Из таблицы 1 видим, что производительность симулятора, работающего на GPU, приблизительно в 8.5 раз выше, чем симулятора, работающего на центральном процессоре.

Заключение В докладе разработаны вопросы построения симулятора MIMOсистемы, включая интерфейс взаимодействия с операционной системой, приведены характеристики производительности разработанного симулятора на графическом процессоре и сравнение с симулятором, реализованным на центральном процессоре.

В дальнейшие планы входит реализация кодера-декодера для канала связи и разработка некоторых частей MAC уровня.

Литература 1. Прокис Д. Цифровая связь. Пер. с англ. / Под ред. Д.Д.

Кловского. – М.: Радио и связь, 2000. – 800 с.: ил.

2. Сорокина С.И. и др. Программирование драйверов и систем безопасности: Учеб. пособие. СПб.: БХВ-Петербург, М.:

Издатель Молгачева С.В., 2003. – 256 с.: ил.

3. Hesham El-Rewini and Mostafa Abd-El-Barr. Advanced computer architecture and parallel processing. – John Wiley & Sons, Inc., Hoboken, New Jersey. 2005. – 272 p.

http://developer.download.nvidia.com/compute/cuda/1_0/NVIDIA _CUDA_Programming_Guide_1.0.pdf Контакты Andrey.Akapiev@inventor.nnov.ru

ВЫЧИСЛИТЕЛЬНАЯ МОДЕЛЬ НЕЙРОАЛГОРИТМА

МНОГОСЛОЙНОГО ПЕРСЕПТРОНА

Харьковский национальный университет радиоэлектроники Введение Нейронные сети (НС) находят в настоящее время широкое применение в самых различных сферах деятельности благодаря параллельной схеме вычисления, устойчивости к сбоям, изменяющейся архитектуре.

В [1] приведены определения нейронной сети, нейронного алгоритма и нейрокомпьютера, опираясь на которые в работе высокопроизводительных вычислительных структурах.

Как правило, нейронные алгоритмы реализуются программно на однопроцессорных системах. Время обучения нейронных сетей, особенно при использовании неоптимальной топологии сети и больших объемах исходных данных, обрабатываемых последовательно, может быть очень велико.

Для ускорения обучения нейронных сетей предлагается использовать симметричные мультипроцессорные системы (SMP), системы с массовым параллелизмом (МРР) и кластерные системы.

При использовании МPР-системы для решения поставленной задачи параллельно вычисляются нейроны одного слоя на числе процессоров равном количеству нейронов в слое. Однако при работе с параллельным алгоритмом на МPР-системе, при значительном увеличении количества процессоров в системе растет время на передачу данных между процессорами и возможен обратный эффект – время обучения НС может возрастать.

Производительность систем с распределенной памятью очень сильно зависит от производительности коммуникационной среды.

Коммуникационную среду можно достаточно полно охарактеризовать параметрами: латентностью (временем задержки при посылке сообщения), пропускной способностью (скоростью передачи информации), временем задержки коммуникационного оборудования (концентратора) и простоя заявок в очередях при неправильной балансировке нагрузки.

Развитие коммуникационных технологий, а именно, появление высокоскоростного сетевого оборудования (например, новый Infiniband-продукт – коммутатор Voltaire Grid Director IRS 2012) и специального программного обеспечения (наиболее распространенная библиотека MPI, реализующего механизм передачи сообщений над стандартными сетевыми протоколами), сделало кластерные технологии общедоступными.

Многослойный персептрон зарекомендовал себя многослойный персептрон (МП).

Рассмотрим МП c архитектурой N i N j N k, где N i - количество нейронов во входном слое, N j - количество нейронов в скрытом слое, - количество нейронов в выходном слое (рис.1).

Рис. 1. Архитектура многослойного персептрона Алгоритм обучения МП состоит из последовательных взаимозависимых этапов обработки, причем каждый этап состоит из совокупности независимых операций, выполняющихся параллельно. В качестве функции активации для всех слоев выбрана сигмоидальная функция. В общем случае алгоритм обучения НС состоит из следующих этапов.

1. Вычисление выходов нейронов на основе обучающего где wij1) - синоптический вес связи i–го входа с j–ым нейроном, X = [x1, x2,..., xi ] – вектор входных сигналов, b (j1) - порог j–ого нейрона скрытого слоя, w(jk ) - синоптический вес связи j–го выхода нейрона скрытого слоя с k–ым нейроном выходного слоя, bk 2) - порог k–ого нейрона выходного слоя, (•) - функция активации нейронов.

Соотношения (1) и (2) можно представить в матричном виде как умножение матрицы весовых коэффициентов W (1) скрытого слоя на вектор входа X и матрицы весовых коэффициентов W ( 2) выходного слоя на вектор Y (1) (выход скрытого слоя) соответственно:

Вычисление ошибки реакции сети где ek (t ) - ошибка k-го нейрона выходного слоя.

Для всех слоев настройка весовых коэффициентов осуществляется в соответствии с где – постоянная момента ( =1), – параметр, отвечающий за скорость обучения, (L ) – локальный градиент j-го нейрона, L – количество слоев.

Постановка задачи Рассмотрим многослойный персептрон (1) – (7). На однопроцессорной системе вычисление нейронов каждого слоя осуществляется последовательно. Сначала производится вычисление выходного вектора скрытого слоя, что представляет собой последовательное вычисление y11), y 21) …, y (j1), затем аналогично вычисляются значения выходного слоя y1( 2), y22) …, y k 2 ) и т. д., пока не будут осуществлены все этапы обучения НС. Такие операции требуют больших временных затрат.

Необходимо построить параллельную модель нейроалгоритма и выбрать топологию вычислительной системы, снижающую затраты межпроцессорного взаимодействия.

Решение задачи В большинстве случаев применение нейрокомпьютеров не представляется возможным в связи с их высокой стоимостью.

Существующие программные реализации нейронных сетей не рассчитаны на использование преимуществ многопроцессорных систем.

Самым простым способом достижения параллельного выполнения является параллелизм на уровне декомпозиции задачи, в данном случае – разложение нейроалгоритма по функциям реализации нейронов.

При использовании количества процессоров Pm, равного количеству связей нейронной сети, достигается максимальное ускорение за счет оптимальной реализации нейроалгоритма. Как видно из рисунка 1, общее количество связей нейронной сети NW = j * (k + i ) + N B, NW > N nn, где N B = j + k - общее количество смещений b (L), N nn = N j + N k – общее количество нейронов.

Однако при таком выборе количества процессоров ресурсы будут не оптимально загружены. Вычислительная нагрузка достигает максимального значения только на этапе настройки весовых коэффициентов слоя L и равномерно распределена среди всех имеющихся в распоряжении процессоров.

Пусть в нашем распоряжении имеется кластерная вычислительная сеть с топологией полносвязный граф при числе имеющихся процессоров Pm = j > k.

На рисунке 2 представлена модель параллельного нейроалгоритма в виде вычислительной схемы нейроалгоритма совместно с расписанием.

Такт 1. Вычисление выходов нейронов скрытого слоя в соответствии с (1) на основе обучающего примера. Обучающий пример представляется парой { X = [x1, x2,..., xi ], D = [d1, d 2,..., d k ] }, где процессорах, распределенных следующим образом: первый процессор вычисляет значения первого нейрона y1(1), второй – второго нейрона y 21), j-ый процессор – j-го нейрона y (j1).

Такт 2. Вычисление выходов нейронов выходного слоя в соответствии с (2). Вычислительная нагрузка распределяется следующим образом: первый процессор вычисляет значения первого нейрона y1( 2), второй – второго нейрона y 22), k-ый процессор – kго y k 2 ).

Такт 3. Вычисление ошибки выходного слоя в соответствии с (5).

Вычислительная нагрузка распределяется следующим образом:

первый процессор вычисляет ошибку первого нейрона e1( 2), второй – второго нейрона e22), k-ый процессор – k -го ek2 ).

Такт 4. Вычисление ошибки скрытого слоя в соответствии с (6).

Вычислительная нагрузка распределяется следующим образом:

первый процессор вычисляет ошибку первого нейрона e1(1), второй – второго нейрона e21), j-ый процессор – j-го e (j1).

скрытого слоя в соответствии с (7). Вычислительная нагрузка распределяется следующим образом: на 5-ом такте первый процессор настраивает весовой коэффициент w01), второй процессор - w02), третий процессор - w03) и j-ый процессор - w (1) ; на 6-ом такте соответственно первый, второй, третий и j-ый процессоры настраивают весовые коэффициенты w (1), w (1), w (1), L, w (1) ; на 7-ом такте соответственно первый, второй, третий и j-ый процессоры настраивают весовые коэффициенты w (1), w (1), w (1), L, w (1) ; на (5+i)-ом такте соответственно первый, второй, третий и j-ый процессоры настраивают весовые коэффициенты w (1), w (1), w (1), L, wij1).

Такты (5+i+2) (5+i+2+k+1). Настройка весовых коэффициентов w jk выходного слоя в соответствии с (7). Вычислительная схема аналогична предыдущей серии тактов 5 (5+i+1): на (5+i+2)-ом такте первый процессор настраивает весовой коэффициент w11 ), второй процессор - w 21) и j-ый процессор - w ( 2) ; на (5+i+3)-ом такте соответственно первый, второй и j-ый процессоры настраивают весовые коэффициенты w ( 2), w ( 2), L, w ( 2) ; на (5+i+4)-ом такте соответственно первый, второй и j-ый процессоры настраивают весовые коэффициенты w ( 2), w ( 2), L, w ( 2) ; на (5+i+2+k)-ом такте соответственно первый, второй, третий и j-ый процессоры ом такте соответственно первый, второй, третий и k-ый процессоры настраивают весовые коэффициенты w01), w02), L, w02).

Заключение С целью снижения времени межпроцессорного взаимодействия во время обучения НС в работе решена актуальная задача построения топологии кластерной вычислительной системы.

Научная новизна работы заключается в том, что предложена параллельная модель нейроалгоритма многослойного персептрона, которая дает возможность сокращения времени обучения нейронной сети на кластерных системах с топологией полносвязный граф.

Литература 1. Кирсанов С. Ю. Нейрокомпьютеры с параллельной архитектурой/Кн.16. – М.: Радиотехника, 2004. – 496 с.:ил.

(Нейрокомпьютеры и их применение. Редактор А. И.

2. Аксак Н.Г., Новосельцев И.В. Реализация многослойного Международная научно – практическая конференция «Современные информационные и электронные технологии».

3. Гергель В.П., Стронгин Р.Г. Основы параллельных вычислений для многопроцессорных вычислительных систем:

Учебное пособие. - Нижний Новгород, 2003.

4. Основные классы современных параллельных компьютеров:

http://parallel.ru/computers/classes.html.

Контакты 61166, Харьков, пр. Ленина,14, каф. ЭВМ, тел. (0572) 702-13-

ИСПОЛЬЗОВАНИЕ СУПЕРКОМПЬЮТЕРОВ

ДЛЯ МОДЕЛИРОВАНИЯ ДВИЖЕНИЯ ЖИДКОСТИ И ГАЗА

В ПРОГРАММНОМ КОМПЛЕКСЕ FLOWVISION

В настоящее время кластерные технологии вычислений получили широкое распространение в связи с доступностью суперкомпьютеров для широкого круга пользователей. Одним из основных потребителей больших расчетных мощностей всегда была вычислительная гидродинамика, поэтому в этой области сейчас наметился бурный переход коммерческих программных комплексов на использование кластерных вычислительных технологий.

Компания “ТЕСИС” выпустила третью версию программного комплекса FlowVision-HPC, предназначенного для моделирования трехмерных течений жидкости и газа в технических и природных объектах. Отличительной особенностью FlowVision-HPC является клиент-серверная архитектура, которая позволяет использовать параллельные компьютеры с распределенной памятью как для расчетов, так и для визуализации течения жидкости и газа. Новая архитектура программного комплекса позволяет наиболее полно использовать возможности параллельных вычислений на кластерах коллективного пользования, когда все задачи запускаются с помощью систем управления заданиями (батч-системы), сохранив при этом удобство работы с FlowVision через клиента, работающего на персональным компьютере.

Другой отличительной особенностью FlowVision-HPC является его тесная интеграция с конечно-элементной программой ABAQUS, которая предназначена для расчета прочностных характеристик конструкций. Обе программы могут работать на компьютерах с распределенной памятью, обмениваясь информацией в процессе расчета в параллельном режиме. Таким образом, использование обеих программ позволяет решать задачи взаимодействия жидкости и конструкций, такие как, например, аквапланирование автомобильного колеса, ветровая нагрузка на здания и сооружения, движение жидкости в цистернах и баках, приводнение гидросамолетов, с одновременным расчетом прочностных характеристик объектов.

РЕШЕНИЕ ЗАДАЧИ ДИФРАКЦИИ ЭЛЕКТРОМАГНИТНЫХ

ВОЛН С ИСПОЛЬЗОВАНИЕМ СИСТЕМЫ

РАСПРЕДЕЛЕННЫХ ВЫЧИСЛЕНИЙ MATHNET

Пензенский государственный университет, Региональный центр суперкомпьютерных вычислений Задача дифракции для сложной системы поверхностей и тел в резонансном диапазоне частот в настоящий момент чрезвычайно актуальна в связи с постоянным уменьшением размеров различных электронных устройств, масштаб которых в последнее время становится сопоставимым с длинами используемых ими электромагнитных волн. В категорию таких устройств, в частности, попадают средства вычислительной техники и телекоммуникации, которые в последнее время развиваются и внедряются все более быстрыми темпами и во все более внушительных масштабах. Решение задач указанного типа требует значительных вычислительных ресурсов, и в этой связи особую остроту приобретают проблемы разработки и внедрения новых математических методов для более эффективного и точного выполнения необходимых вычислений, а также проблема рациональной программной реализации этих методов, которая позволила бы получать результат требуемой точности за приемлемое время. Последнее становится возможным только при условии использования современных многопроцессорных вычислительных систем различной архитектуры, что, в свою очередь, требует применения методов и средств параллельного программирования для организации вычислений в рамках решения указанной физической задачи.

Ввиду малой распространенности специализированных вычислительных систем (суперкомпьютеров) с архитектурами SMP и MPP, обусловленной их высокой стоимостью, особый интерес представляет программная реализация решения задачи дифракции, адаптированная к выполнению на обычных рабочих станциях, объединенных стандартной на данный момент сетью Fast Ethernet.

Подобный подход не только более оправдан с экономической точки зрения, но и в большей степени соответствует современным тенденциям развития информационных технологий. Он хорошо соотносится с концепцией GRID-систем, разработка которых в настоящее время является одним из перспективных направлений в сфере вычислительной техники. Указанная концепция предполагает объединение территориально распределенных вычислительных ресурсов с целью их совместного использования для решения сложных и трудоемких задач различного характера. При этом, как правило, возникает иерархическая структура, в которой выделяются основной сервер, отвечающий за организацию вычислительного процесса и управление его ходом, и конечные узлы, выполняющие непосредственную обработку отдельных подзадач. Достоинством GRID-систем является то, что для их развертывания не требуется введение в строй дополнительных вычислительных мощностей или использование ВС со специфической архитектурой. Они позволяют задействовать свободные ресурсы типовых персональных компьютеров и рабочих станций, реальная загрузка которых в обычных условиях колеблется – по данным различных исследований – в диапазоне от 2-3% до 10%. Благодаря использованию GRID-систем эксперименты по решению сложных вычислительных задач могут быть поставлены даже в небольших научных учреждениях и учебных заведениях.

Ориентация на идеологию GRID-систем и применение стандартных, широко распространенных средств вычислительной техники требует учета особенностей целевой аппаратной среды при разработке программной реализации решения задачи дифракции. К этим особенностям относятся:

1. Разнородность узлов вычислительной системы, которая выражается в первую очередь в их неодинаковой производительности.

2. Ограниченная пропускная способность вычислительной сети и непостоянство связей между сервером и отдельными узлами.

3. Динамическое изменение количества узлов, задействованных для выполнения вычислений.

Необходимость учета перечисленных факторов определяет требования к целевой параллельной программе и средствам, которые могут быть использованы при ее разработке. В связи с первой из отмеченных особенностей среды предпочтительной является такая организация программы, при которой количество параллельных ветвей будет превышать количество доступных вычислительных узлов, что позволит распределить нагрузку на последние с учетом производительности каждого из них. Такой подход позволяет также избежать простоя отдельных рабочих станций, поскольку необработанные подзадачи могут распределяться динамически и передаваться на конкретный узел сразу после выполнения им ранее назначенной порции вычислений. Для учета второй особенности необходимо при распараллеливании алгоритма обеспечить минимальную зависимость подзадач по данным. В противном случае интенсивные обмены между подзадачами могут привести к перегрузке сети, простою рабочих станций (которые будут ожидать освобождения канала связи, чтобы получить возможность выполнить операции приема или передачи) и, как следствие, к неэффективному использованию вычислительных мощностей и увеличению общего времени выполнения программы. Третья особенность среды предполагает, что программа решения задачи дифракции должна обладать значительной гибкостью. Необходимо, чтобы она могла отслеживать появление свободных узлов, которые не были задействованы при старте вычислений, и передавать им на обработку подзадачи из числа не распределенных на момент обнаружения таких узлов. Кроме того, программа должна корректно обрабатывать исключительные ситуации, связанные с ошибками или отказами в работе отдельных узлов. При возникновении сбоя во время решения некоторой подзадачи на одной из рабочих станций весь процесс вычислений не потребуется начинать заново – достаточно будет лишь повторно обработать единичную подзадачу на другом узле вычислительной системы.

Для разработки программы решения задачи дифракции, удовлетворяющей вышеперечисленным требованиям, целесообразно использовать один из существующих инструментариев, реализующих основные положения концепции GRID-систем. К числу таких наборов программных средств относятся пакеты Globus, X-Com и MathNet.

Отличительной особенностью системы Globus является возможность решения с ее помощью широкого круга сложных вычислительных задач, а также организации групповой разработки и эксплуатации приложений. Однако возможности Globus представляются явно избыточными для рассматриваемых условий применения. Кроме того, система отличается сложностью и громоздкостью, что делает крайне затруднительным ее использование для разработки небольших экспериментальных приложений, ориентированных на выполнение на малых вычислительных мощностях. Возможность решения с помощью системы Globus широкого круга задач достигается за счет необходимости выработки индивидуального подхода к параллельной программной реализации каждой из них. Это приводит к повышению трудоемкости разработки приложений и сильной зависимости требований, предъявляемых ими к целевой аппаратной среде, от специфики задачи, для решения которой они предназначены.

В отличие от Globus X-Com обеспечивает решение ограниченного набора задач, но при этом обладает рядом особенностей, которые делают более предпочтительным его применение для проектирования экспериментальных приложений, а также их отладки и тестирования с использованием стандартной на сегодня компьютерной техники. Вопервых, унифицированный интерфейс взаимодействия прикладной программы с основной системой избавляет от необходимости выполнения полного комплекса процедур разработки при решении каждой конкретной задачи. Во-вторых, наличие автоматической системы планирования снижает нагрузку на использующего инструментарий X-Com разработчика, который может сосредоточиться на поиске и рациональной реализации наиболее оптимального алгоритма, в то время как учетом конфигурации аппаратной среды и организацией вычислительного процесса займется сама система. В-третьих, ориентация на иерархическую структуру (вместо децентрализованной, используемой Globus) облегчает контроль за динамическим изменением состава вычислительной системы и объема ресурсов, доступных на каждом из ее узлов. X-Com способен работать в асинхронном режиме (т.е. в условиях отсутствия постоянной связи между узлами), использует только стандартные протоколы передачи данных и в принципе не требует применения аппаратных средств со специфической архитектурой или нетипичными характеристиками.

Система распределенных вычислений (СРВ) MathNet реализует ключевые принципы, аналогичные X-Com. На текущем этапе своего развития эта система представляет собой отличное средство начального уровня для проведения экспериментов по решению сложных вычислительных задач на стандартном оборудовании.

Развертывание программного комплекса MathNet не требует какихлибо подготовительных процедур, а разработка адаптированных для него приложений не сопряжена с необходимостью серьезной переработки уже существующих последовательных алгоритмов или изучения специфических средств и приемов параллельного программирования. Система работает под управлением ОС Windows, что также упрощает ее использование в учебных лабораториях.

Программы для системы MathNet оформляются в виде динамически загружаемых библиотечных модулей (DLL), написанных на языке C/C++ и в обязательном порядке содержащих функции Initialize и Calculate. В рамках первой из указанных функций должно выполняться разбиение исходной задачи на небольшие фрагменты, что предполагает составление перечня сформированных подзадач и заполнение индивидуального буфера данных каждой из них. Вторая функция отвечает за непосредственную реализацию вычислений, которым предшествует этап извлечения данных из входного буфера и которые завершаются помещением результатов (окончательных либо промежуточных) в указанный выходной буфер. Семантика Initialize и Calculate уточняется разработчиком конкретного приложения. Автор исполняемой в среде MathNet программы также не ограничен в вопросе выбора способа представления и логической организации исходных данных и результатов, поскольку индивидуальные буферы подзадач абсолютно прозрачны для стандартных модулей СРВ.

Задача дифракции в общем случае сводится к системе линейных алгебраических уравнений, которую можно решить, используя итерационные методы. Обработка СЛАУ предполагает выполнение матричных операций, основной и наиболее трудоемкой из которых будет умножение матрицы на вектор. Это означает, что верхнему уровню распараллеливания вычислений в системе MathNet будет соответствовать выделение подзадач, связанных с определением значений отдельных элементов результирующего вектора. Учитывая размерность матрицы коэффициентов (порядка 103 - 104 для реальных задач) и требование минимизации обменов между подзадачами, целесообразно использовать ленточную схему разделения данных, при которой каждому процессу будет передаваться строка (или группа строк) исходной матрицы и копия вектора-множителя. При этом рассылка относительно больших объемов данных будет происходить только на подготовительном этапе, после чего в распоряжении каждого узла системы окажется все необходимое для автономного выполнения вычислений. Однако решение СЛАУ оказывается существенно менее трудоемкой процедурой, чем заполнение матрицы, элементы которой формируются в результате счета многомерных интегралов. Это означает, что распараллеливание вычислений на этапе определения коэффициентов СЛАУ (т.е. построения используемой в дальнейшем матрицы) также является необходимым условием снижения временных затрат на решение задачи дифракции. Более глубокая декомпозиция возможна за счет разбиения диапазонов интегрирования на отдельные участки, однако выделение столь мелких подзадач средствами самой системы MathNet представляется нецелесообразным. Таким образом, еще одним направлением распараллеливания вычислений в рамках решения задачи дифракции является одновременный счет интегралов на узлах вычислительной системы. Поскольку процедуры заполнения матрицы и решения СЛАУ достаточно разнородны (как в смысле используемых математических методов, так и в смысле времени выполнения), причем каждая из них допускает параллельную обработку данных, хотя сами они должны выполняться в строго определенной последовательности, логично реализовать их в виде двух самостоятельных приложений. Функция Initialize, входящая в состав первой программы, будет отвечать за распределение исходных данных, необходимых для счета интегралов.

Это распределение должно быть осуществлено таким образом, чтобы число сформированных подзадач примерно на порядок превосходило число доступных вычислительных узлов. Такое разбиение позволит более рационально использовать доступные аппаратные ресурсы. Если параметры вычислительной среды заранее определены и известно, что ее конфигурация не претерпит значительных изменений на протяжении всего эксперимента, то желательно иметь возможность явно указывать необходимый масштаб подзадач или их количество.

Для этого можно использовать файл настроек, содержимое которого будет анализироваться функцией Initialize (такой же подход вполне приемлем и для второй программы). Функция Calculate первой программы будет выполнять непосредственное вычисление интегралов. Сбор значений, полученных в результате вызовов Calculate на различных узлах системы, будет произведен автоматически средствами СРВ MathNet. Вычисленные значения интегралов поступят в буфер, подаваемый на вход функции Initialize, которая сформирует из них искомую матрицу и сохранит ее на рабочей станции, отвечающей за выполнение серверного процесса.

Основной задачей второй программы, как отмечалось выше, будет решение СЛАУ (представленной в матричной форме) одним из итерационных методов (например, методом сопряженных градиентов).

Функция Initialize этой программы выполнит разрезание полученной на предыдущем этапе матрицы по строкам и поместит образовавшиеся массивы значений во входные буферы подзадач вместе с копиями вектора-множителя. Собственно итерационный процесс по методу сопряженных градиентов будет реализован функцией Calculate.

Ключевой операцией, выполняемой этой функцией, будет умножение подмножества строк матрицы на вектор. Представление результатов в нужной форме и их сохранение для последующего анализа и дальнейшего использования, как и в предыдущем случае, выполнит функция Initialize. Процесс решения задачи дифракции для тела заданной формы можно будет считать законченным после успешного завершения работы второй программы.

Таким образом, разрабатываемая программа позволит отлаживать параллельный алгоритм решения задачи дифракции электромагнитных волн с учетом особенностей GRID-систем, что позволит легко адаптировать ее к другим системным реализациям, а для тестирования использовать доступные ограниченные вычислительные ресурсы.

РАЗРАБОТКА WEB-ОРИЕНТИРОВАННОГО

ВЫЧИСЛИТЕЛЬНОГО КОМПЛЕКСА ДЛЯ РЕШЕНИЯ

ТРЕХМЕРНЫХ ВЕКТОРНЫХ ЗАДАЧ ДИФРАКЦИИ

ЭЛЕКТРОМАГНИТНЫХ ВОЛН НА ОСНОВЕ

СУБИЕРАРХИЧЕСКИХ ПАРАЛЛЕЛЬНЫХ АЛГОРИТМОВ

А.В. Антонов, М.Ю. Медведик, И.А. Родионова, Ю.Г. Смирнов Пензенский государственный университет Введение Рассмотрим задачу дифракции электромагнитного поля на идеально проводящем тонком, плоском ограниченном экране. В общей постановке задача состоит в нахождении решений уравнений Максвелла, удовлетворяющих определенным краевым условиям и условиям излучения на бесконечности. Данная задача принадлежит к числу классических в электродинамике. Наиболее естественный подход к решению этой задачи – сведение ее к векторному интегродифференциальному уравнению на экране. В наших обозначениях это уравнение имеет вид:

где Div - операция поверхностной дивергенции, A - интегральный оператор u – касательное к поверхности экрана векторное поле (плотность поверхностного тока). Индекс. показывает взятие касательных к компонент соответствующего векторного поля. Центральной проблемой при исследовании разрешимости представленных выше уравнений является выбор пространств для решений и для правых частей таким образом, чтобы обеспечить фредгольмовость (и, если удастся, однозначную разрешимость) этого уравнения в выбранных пространствах. Кроме того, пространство решений должно быть достаточно широким и содержать все возможно допустимые поля. Для решения данной задачи стали активно применяться численные методы (метод моментов, метод Галеркина), но без достаточного математического обоснования. Тем не менее в численных решениях задач дифракции был накоплен значительный опыт. Имеется ряд монографий по решению задач дифракции на экранах различной формы. Наиболее распространенным стал метод, предложенный в году в статье [3]. Следует подчеркнуть, что проблема эффективного численного решения задач дифракции на тонких экранах в настоящее время, по-видимому, пока не решена даже с использованием самых мощных современных ЭВМ.

В данной работе предлагается другой подход, в котором из результатов решения задачи, полученных на прямоугольном экране, «вырезается» другой экран произвольной формы, целиком помещается в прямоугольном экране и без повторных вычислений в матрице СЛАУ определяется значение поверхностных токов на новом экране.

Таким образом можно решить серию задач дифракции на экранах различной формы. Субиерархический метод используется совместно с параллельными вычислительными алгоритмами в связи с большой вычислительной сложностью формирования матрицы СЛАУ.

Наиболее удобно рассчитывать подобные задачи на кластере [4].

Постановка задачи Пусть R 2 = {x3 = 0} R 3 - ограниченная область с кусочногладкой границей Г, состоящей из конечного числа простых дуг класса С, сходящихся под углами, отличными от нулевого. Задача дифракции стороннего монохроматического электромагнитного поля E 0, H 0 на бесконечно тонком идеально проводящем экране, расположенном в свободном пространстве с волновым числом k, k 2 = 2 ( + i 1 ), Im k 0 (k 0), сводится к решению уравнения (1), где f = 4kE0.

Будем предполагать, что все источники падающего поля находятся вне экрана так, что Обычно падающее поле - это либо плоская волна, либо электрический или магнитный диполь, расположенный вне.

Определим пространство W как замыкание C 0 ( ) в норме Можно показать, что [1] где пространство Соболева H s ( ) определяем обычным образом.

W относительно полуторалинейной формы ( f, v) = f v dx :

где M – замкнутая поверхность, такая, что M.

Метод Галеркина Рассмотрим n-мерное пространство Vn W. Будем проводить аппроксимации u элементами u n Vn. Методом Галеркина находим u n из системы уравнений [2] Ln : Vn Vn', где Vn' есть антидуальное пространство к Vn.

Основная трудность для уравнений электрического поля (1) состоит в том, что оператор L не является сильно эллиптическим и традиционные теоремы о сходимости метода Галеркина неприменимы.

Результаты о сходимости метода Галеркина удается обобщить на уравнения с операторами, эллиптическими на подпространствах, в том числе на уравнение электрического поля (1), так как оператор L является эллиптическим на подпространствах.

Каждый элемент матрицы (3) получается путем вычисления четырехкратного интеграла имеющего слабую особенность в области интегрирования. Здесь x = ( x1, x 2 ), y = ( y1, y 2 ). В качестве базисных функций (x) и тестовых u ( y) выберем функции RWG.

Аналогично рассматривается трехмерная векторная задача математической теории распространения волн в неограниченных областях: определение рассеянного электромагнитного поля волновода, сформированного плоскопараллельными слоями, связанными отверстием произвольной формы. Слои образованы тремя идеально проводящими и бесконечно тонкими параллельными плоскостями. Электромагнитные параметры в разных областях могут быть различны. Данная задача принадлежит к классу задач о связи объектов через отверстие. Наиболее естественным и эффективным подходом к решению этой задачи является ее сведение к интегральному уравнению на отверстии с помощью метода функций Грина. Задача решается методом Галеркина. В связи с большим количеством вычислений применяется параллельный алгоритм.

Интерфейс пользователя Интерфейс пользователя вычислительного комплекса организован по принципу «тонкого клиента» с возможностью доступа через сеть Интернет [6]. Для использования его возможностей необходимо иметь выход в сеть Интернет и Web-браузер с поддержкой JavaScript (рекомендуется использовать MS Internet Explorer версии не ниже или Mozilla Firefox версии не ниже 1.8). Тестовая версия вычислительного комплекса размещена на сайте Регионального центра суперкомпьютерных вычислений (РЦСВ) при Пензенском государственном университете по адресу http://alpha.pnzgu.ru в разделе «Научная работа».

Исходными данными для вычислений являются следующие параметры (см. рис. 1):

p – выбор поляризации: "1" - E-поляризация, "-1" - Hполяризация падающей волны;

e – относительная диэлектрическая проницаемость (e>=1) (для двумерной задачи параметр не используется);

x – X-координата вектора падения плоской волны;

y – Y-координата вектора падения плоской волны;

z – Z-координата вектора падения плоской волны;

n – параметр размерности матрицы из расчета 2n;

матрица, задающая форму фигуры, на которой также задаются вертикальная и горизонтальная срезки.

Числовые характеристики вводятся в соответствующие поля формы, а матрица рисуется при помощи указателя манипулятора мышь.

После ввода параметров нужно нажать кнопку «Сохранить», при этом все исходные данные сохранятся на сервере в файле специального формата.

Далее пользователь должен перейти в раздел «Результаты работы»

(см. рис. 2). В нем отображается в виде рисунка заданная ранее фигура и графики сечения поверхностных токов, полученные во время предыдущего запуска расчетов. Для запуска вычислений по вновь введенным данным необходимо нажать кнопку «Запуск вычислений».

После этого задача ставится в очередь на выполнение, сообщение об этом выводится вместо кнопки запуска. Обновляя окно браузера можно увидеть сообщение о запуске программы с указанием времени ее запуска. После окончания расчета графики будут выводиться на основе вновь полученных данных. Для более подробного изучения каждый график можно открыть в отдельном окне. Также на странице результатов имеются ссылки на файл с исходными данными и файл с числовыми результатами вычислений.

Организация параллельных вычислений В вычислительном комплексе периодически проверяется наличие новых данных для выполнения вычислений (данные считаются подготовленными после нажатии кнопки «Запуск вычислений»). При наличии таковых файл с информацией для расчета копируется на вычислительную систему, на которой установлена программа расчета, реализующая алгоритм решения задачи дифракции. Данная программа может быть написана на любом языке программирования и может работать на любой вычислительной системе, единственным условием является возможность передавать ей входные данные через файл и возможность ее удаленного запуска.

После выполнения программы файл с результатами копируется обратно и предоставляется пользователю. Передача данных осуществляется с использованием протокола FTP, выполнение команд на запуск вычислений – использованием протокола SSH.

В настоящее время вычислительная программа написана на языке Си с использованием библиотеки MPICH. Вычислительный комплекс размещен на серверах РЦСВ. Тестирование комплекса производится с использованием вычислительных ресурсов НИВЦ МГУ.

Заключение Удобство подобной реализации состоит, с одной стороны, в том, что пользователю вычислительного комплекса не надо иметь специализированных средств и программ, а также специальных знаний в области параллельных вычислений для получения доступа к высокопроизводительной вычислительной системе. С другой стороны, имея один и тот же пользовательский интерфейс, вычислительную программу можно запускать на различных параллельных кластерных системах, причем даже независимо от их загруженности и доступности в конкретный момент времени, что позволит работать в «on-line»

режиме, сокращая время, затрачиваемое пользователем для решения сложной математической задачи.

Работа выполнена в рамках программы СКИФ-ГРИД при поддержке гранта РФФИ-06-07-89063.

Литература электромагнитных волн на проводящих тонких экранах М.:

Радиотехника, 1996.

2. Колтон Д., Кресс Р. Методы интегральных уравнений в теории рассеяния. М.: Мир, 1987.

3. Rao S.M., Wilton D.R., Glisson A.W.. Electromagnetic Scattering by Surface of Arbitrary Share..// IEEE Transactions on antennas and propagation. Vol. Ap-30. Pp 409-417, May 1982.

параллельный вычислительный алгоритм и сходимость метода Галеркина в задачах дифракции электромагнитного поля на плоском экране // Известия высших учебных заведений.

Поволжский регион. Естественные наук

и. – 2004. – № 5. – С.

параллельный вычислительный метод для электромагнитной задачи дифракции в экранированных слоях, связанных через отверстие // Труды международного симпозиума "Надежность и качество". Том 1. 2006. С. 272-274.

параллельной вычислительной системы с доступом через Интернет // Материалы XIII Международной школы-семинара «Синтез и сложность управляющих систем» (Пенза, 14-

НОВАЯ КОНЦЕПЦИЯ ПРОГНОЗА ЛЕСНОЙ ПОЖАРНОЙ

ОПАСНОСТИ И ЛАНДШАФТНОЕ РАСПАРАЛЛЕЛИВАНИЕ

ОСП НИИ прикладной математики и механики Томского государственного университета Введение экологический ущерб. В настоящее время широко известны следующие методики прогноза лесной пожарной опасности – канадская [1] и американская [2] системы, европейская система [3] и критерий Нестерова [4], который с 1999 года используется в качестве ГОСТа [5] на территории РФ. Большинство методов базируется на метеоданных, которые получают с метеостанций или с помощью спутникового зондирования [6]. Ни первый, ни второй варианты не позволяют проводить прогнозных расчетов, а только позволяют оценивать текущую пожарную опасность лесопокрытых территорий.

Новая концепция прогноза лесной пожарной опасности Анализ обстановки в области охраны лесов от пожаров позволяет выделить основные узкие места существующего подхода к прогнозированию лесной пожарной опасности.

Существующие методы прогноза лесной пожарной опасности не учитывают физико-химические процессы сушки и зажигания слоя ЛГМ, которые являются одними из определяющих в наступлении пожарной опасности.

На больших малоосвоенных территориях, как правило, имеется лишь редкая и неразвитая сеть метеостанций, а в настоящий момент именно эта информация используется для оценки пожарной опасности по существующему ГОСТу.

Факторы антропогенной нагрузки и грозовой активности должным образом не учитываются.

В системе охраны лесов от пожаров отсутствует вычислительный центр для централизованной обработки исходной информации и выработки прогноза.

Чтобы ликвидировать данные недостатки, предлагается новая концепция прогноза лесной пожарной опасности [7]. Входная информация по метеопараметрам генерируется в программах, реализующих глобальные [8] или региональные [9] модели атмосферы, и поступает в качестве входной в подсистемы оценки вероятности возникновения лесных пожаров по метеоусловиям и сценариям зажигания. Данная идея предложена автором в 2003 году [10].

Отметим, что годом позже такой же подход был предложен в работе американских исследователей [11]. Следует разработать систему усвоения данных об уровне антропогенной нагрузки (С.У.Д.А.Н.) [12] на контролируемой лесопокрытой территории, чтобы учесть пространственно-временной характер антропогенной нагрузки.

Информация из систем пеленгации разрядов облако-земля [13] поступает в качестве входной в модель. В итоге детерминированновероятностная модель [14] позволяет определить вероятность возникновения лесных пожаров. Предполагается создание общегосударственного центра мониторинга лесной пожарной опасности, где собирается исходная информация и в результате генерируется и направляется заинтересованным потребителям прогнозная информация. В центре функционирует многопроцессорная вычислительная система МВС, которая будет являться ядром всей информационно-вычислительной системы. Вся система может быть и распределенной, главное, чтобы была осуществима оперативная передача информации из различных подсистем для обработки на МВС.

Ландшафтное распараллеливание и прогноз лесных пожаров В аналитическом обзоре [15] представлены последние данные – в России 1807 лесхозов, 7851 лесничество, в каждом лесничестве более 100 кварталов, в каждом квартале может быть до 100 выделов (однородных участков). Необходимо применять МВС, и необходима разработка соответствующего проблемно-ориентированного подхода ландшафтного распараллеливания для прогноза лесной пожарной опасности на крупных лесопокрытых территориях, который бы базировался на трех основах: физически содержательная методика определения вероятности лесопожарного происшествия (в данном случае – возникновение лесного пожара), использование достаточно дешевых МВС, существующая структура устройства лесного хозяйства [16]. Сформулированы основные положения подхода ландшафтного распараллеливания [17].

Математическая постановка должна быть такой, чтобы расчеты для каждого отдельного однородного участка леса не зависели от других участков леса. Другими словами, необходимо разработать математическую постановку, которая бы позволяла вести расчет отдельно по всем выделам.

Однородный участок леса должен совпадать с однородными участками леса, принятыми в лесотаксационных описаниях [16].

Отсюда берет свое начало термин «ландшафтное распараллеливание».

Для обеспечения более или менее равномерной вычислительной загрузки процессорных узлов МВС необходимо использовать модель распараллеливания по данным [18]. В MPI, например, может быть использована SPMD-модель вычислений [19]. Хотя равномерная загрузка данными не всегда обеспечивает равномерность вычислительной загрузки.

Возможность обеспечивать высокую производительность (быстродействие) параллельной программы на как можно большем количестве МВС, различных по архитектуре, имеющих при этом хорошее соотношение цена/производительность, доступность и массовое распространение.

Обеспечение как можно меньшего количества обменов информационными пакетами между ветвями параллельной программы в процессе ее выполнения, так как основное узкое место МВС - это коммуникационная среда, применяемая для связи между процессорными узлами. Таким образом, самым оптимальным вариантом по критерию цена/производительность можно считать кластерные вычислительные системы, имеющие, однако, очень низкие показатели скорости обмена между процессорными узлами. Это и обусловливает необходимость как можно меньшего числа обменов и обеспечения возможности перекрытия вычислений и обменов.

Обеспечение однозначного отображения административнохозяйственного, лесотаксационного разделения лесного фонда государства (по крайней мере, Российской Федерации) на архитектуру МВС. Разбиение лесного фонда по выделам и распределение вычислительной нагрузки по процессорным узлам МВС.

С учетом сформулированных выше положений ландшафтного распараллеливания был разработан ряд различных по сложности математических моделей для определения времени сушки слоя ЛГМ.

Их применение позволяет обеспечить равномерность вычислительной нагрузки, высокую производительность и возможность использования недорогих МВС (вычислительных кластеров).

В случае когда вычислительная система состоит из одного узла (М=1), время выполнения цикла - To=pNV/c, где р - количество операций, необходимых для вычисления одной итерации цикла, NV число итераций цикла, с - производительность узла. Тогда, если NV > М и NV делится нацело на М, на каждом процессоре выполняется NV/M итераций цикла и время выполнения цикла равно TM=pNV/(Mc).

Определим ускорение SM через отношение T0 к TM и в итоге получим:

SM=M. Эта формула для ускорения справедлива при полном отсутствии потерь. Под эффективностью понимается отношение E = 0, которая в данном случае будет равна единице, так как не учитываются потери.

Если NV не делится нацело на М, то задача об оптимальном распределении итераций цикла по процессорным узлам системы является задачей целочисленного программирования и, как отмечено в [20], не всегда имеет точное решение. Рассмотрим здесь следующую эвристику: сначала [NV/M] итераций равномерно распределяются по узлам, затем количество оставшихся итераций распределяется на NV-[NV/M]M процессорных узлов, что приведет к тому, что на некоторых узлах будет больше итераций.

Кроме того, перед выполнением цикла, как правило, необходимо разослать исходные данные по узлам вычислительной системы, а после выполнения цикла необходимо собрать результаты с процессорных узлов. Время, которое необходимо на выполнение указанных действий, обозначим через T'M. Если NV не делится нацело на М, а при распределении данных по узлам была использована некоторая эвристика, то на часть узлов попадут "лишние" данные [20], время обработки которых тоже присоединим к Т'M. В итоге время выполнения параллельного цикла равно TM=T0M+T'M=T0M+MT0M, где T0M - время выполнения параллельного цикла при отсутствии потерь, а M=T'M/T0M. Таким образом, с учетом потерь ускорение равно SM=M/(1+M). Когда необходимо учитывать потери, эффективность вычисляется по формуле и будет равна 1/(1+M).

Расчеты проводились на вычислительном кластере Томского государственного университета. Технические характеристики:

18 процессоров Pentium III 650 MHz, 2.5 Гб ОЗУ, 36 Гб дискового пространства, Fast Ethernet. Программное обеспечение: операционная система FreeBSD 4.2, кластерный пакет LAM MPI v 6.3.2. Кроме того, был создан и запущен в эксплуатацию вычислительный кластер на базе компьютеров локальной вычислительной сети кафедры [17], который состоит из 4-х однопроцессорных компьютеров на базе процессоров Intel Pentium III 800 МГц. На компьютерах установлено по 128 Мб оперативной памяти и жесткий диск на 20 GB. Компьютеры объединены с помощью сетевой технологии Ethernet. Для организации параллельных вычислений на кластере установлен кластерный пакет LAM MPI 6.5.1. Узлы кластера в одно и то же время могут использоваться как в качестве пользовательских станций, так и непосредственно для проведения вычислений.

Реализация параллельной программы осуществляется на языке программирования Си с применением функций библиотеки передачи сообщений MPI. Алгоритм параллельной программы: исходные данные разрезаются и рассылаются корневым процессом параллельной программы. Затем на каждом узле параллельная программа обрабатывает свою часть данных. Межпроцессорных обменов нет, распараллеливание организовано крупнозернистыми блоками. По окончании вычислений корневой процесс собирает результаты со всех процессорных узлов и сохраняет их в файле результатов. Разработаны масштабируемые параллельные программы (число задействованных процессоров является параметром программы).

Проанализировав полученные результаты, можно сделать вывод о том, что алгоритм рассматриваемой задачи очень хорошо подходит для параллельной реализации на МВС. В результате имеет место ускорение, практически пропорциональное числу задействованных процессоров МВС. Эффективность практически не зависит от числа задействованных процессоров, так как в процессе работы программы нет межпроцессорных передач данных. Установлено, что падение производительности невелико и M [1,16]( M ) = 0,09.

Следует заметить, что несмотря на применение эвристики для распределения данных в случае, когда NV не делится нацело на M (статическая эвристика с предварительным распределением перед началом выполнения параллельного цикла), это не приводит к заметной разбалансировке вычислительной нагрузки и нет необходимости применять средства динамической перебалансировки вычислительной нагрузки в процессе выполнения параллельной программы. Рассылка и сбор данных корневым процессом параллельной программы технически реализованы посредством векторных вариантов функций рассылки и сбора данных библиотеки MPI.

Подход ландшафтного распараллеливания является проблемноориентированным, но в пределах области своего приложения достаточно гибок и универсален. Разработаны прототип аппаратнопрограммного комплекса для лесопожарного мониторинга крупных лесопокрытых территорий и параллельный программный комплекс прогноза возникновения лесных пожаров на крупных лесопокрытых территориях.

Разработанный аппаратно-программный комплекс (вычислительный кластер, параллельный программный комплекс, сопутствующее методическое обеспечение) использовался в 2002 году в учебном и научно-исследовательском процессах на кафедре физической и вычислительной механики ММФ ТГУ.

Заключение В рамках новой концепции прогноза лесной пожарной опасности разработан проблемно-ориентированный подход ландшафтного распараллеливания. Как показал анализ результатов проведенного исследования, данный подход очень эффективен при решении задач лесопожарного созревания слоя ЛГМ, определения вероятности возникновения лесных пожаров, оценки экологических последствий лесных пожаров. Параллельная программа достигает практически максимально возможного ускорения, когда ускорение практически пропорционально числу задействованных процессоров.

Литература 1. Stocks B.J., Alexander M.E., McAlpine R.S. et al. Canadian Forest Fire Danger Rating System. Canadian Forestry service, 1987.

2. Курбатский Н.П., Костырина Т.В. Национальная система расчета пожарной опасности США // Сб. «Обнаружение и анализ лесных пожаров». Красноярск: ИЛиД СО АН СССР, 3. Camia A., Barbosa P., Amatulli G., San-Miguel-Ayanz J. Fire Danger Rating in the European Forest Fire Information System (EFFIS): Current developments // Forest Ecology and Management. 2006. Vol. 234. Supplement 1. P. S20.

4. Нестеров В.Г. Горимость леса и методы ее определения. М.;

Л.: Гослесбумиздат, 1949. 76 с.

5. ГОСТ Р 22.1.09-99 “Мониторинг и прогнозирование лесных пожаров. Общие требования”.

6. Сухинин А.И., Пономарев Е.И. Картирование и краткосрочное прогнозирование пожарной опасности в лесах Восточной Сибири по спутниковым данным // Сибирский экологический журнал. 2003. № 6. С. 669 – 675.

7. Барановский Н.В. Новая концепция прогноза лесной пожарной опасности // Современные методы математического моделирования природных и антропогенных катастроф:

Тезисы IX Всероссийской конференции (17–22 сентября г., Барнаул). – Барнаул: Изд-во Алт. ун-та, 2007. С. 13.

8. Толстых М.А. Полулагранжева модель атмосферы с высоким Метеорология и гидрология, 2001, № 4, С. 5 – 15.

9. Lixiang Z., Xiaoshan Z., Yongzuo L., Jinggui W. Case study on tropical cyclone track prediction with MM5 // Journal of Nanjing Institute of Meteorology. Nanjing, China, 2000. Vol. 23. N 1. P. 10. Барановский Н.В., Гришин А.М., Лоскутникова Т.П.

Информационно-прогностическая система определения Вычислительные технологии. 2003. № 2. С. 16 – 26.

11. Hoadley J.L., Westrick K.J., Ferguson S.A., Goodrick S.L., Bradshaw L., Werth P.A. The effect of increased model resolution in predicting meteorological parameters used in fire danger rating // Journal of Applied Meteorology. 2004. Vol. 43. P. 1333 – 1347.

12. Барановский Н.В. Математические основы системы усвоения данных об уровне антропогенной нагрузки на контролируемой лесопокрытой территории // Наука на рубеже тысячелетий “Progressive technologies of development”: 3-я Международная научно-практическая конференция: 24 – 25 ноября 2006 г.

Тамбов: ОАО “Тамбовполиграфиздат”, 2006. С. 120 – 121.

13. Cummins K.L., Murphy M.J., Bardo E.A., Hiscox W.L., Pyle R.B., Pifer A.E. A combined TOA/MDF technology upgrade of the U.S.

national lightning detection network // Journal of Geophysical Research. 1998. Vol. 103. P. 9035–9044.

14. Барановский Н.В. Математическое моделирование наиболее вероятных сценариев и условий возникновения лесных пожаров: Дисс. … канд. физ.-мат. наук. Томск: Томский государственный университет, 2007. 153 с.

15. Исаев А.С., Коровин Г.Н., Титов С.П. и др. Экологические проблемы поглощения углекислого газа посредством Аналитический обзор. М.: Центр экологической политики, 16. Проект организации и развития лесного хозяйства Тимирязевского мехлесхоза Томского лесохозяйственного министерства лесного хозяйства РСФСР. Том III.

Таксационные описания Тимирязевского лесничества. Книга 3. Кварталы 91-145. Инв. № 390. Томск: Гослезхоз СССР.

Всесоюзное объединение "Леспроект". Западно-Сибирское лесоустроительное предприятие, 1990. 400 с.

17. Барановский Н.В. Ландшафтное распараллеливание и прогноз лесной пожарной опасности // Сибирский журнал вычислительной математики. 2007. Том 10. № 2. С. 141–152.

18. Малышкин В.Э. Основы параллельных вычислений: Учеб.

пособие. Новосибирск: Изд-во НГТУ. 1998. 60 с.

19. Snir M., Otto S.M., Huss-Lederman S. et al. MPI: The Complete Reference. - Boston: MIT Press. 1996.

20. Аветисян А.И., Гайсарян С.С., Самоваров О.И. Возможности содержащих простые и итерированные циклы, на неоднородных параллельных вычислительных системах с распределенной памятью // Программирование. № 1. 2002. С.

О ПРАКТИЧЕСКОМ ПРИМЕНЕНИИ

ПАРАЛЛЕЛЬНОЙ СИСТЕМЫ ОПТИМИЗАЦИИ

ABSOLUTE EXPERT

Нижегородский государственный университет Введение Работа выполнена в рамках совместного проекта «Быстрые вычисления в глобальной оптимизации: последовательные и параллельные среды» между ННГУ и Технологическим университетом г. Делфта, Нидерланды (TUDelft). Задачами проекта являлись разработка параллельной системы глобальной оптимизации и ее использование для решения вычислительно-трудоемких задач на высокопроизводительных кластерных системах. Инженерным приложением являлась задача поиска оптимального профиля колеса для рельсовых видов транспорта: метро, трамвай и т.п.

Содержательная постановка задачи Рассматривается задача оптимизации профиля рельсового колеса ([1], [2]). Вследствие конической формы колеса центр колесной пары совершает синусоидальные движения (см. рис. 1). Кинематические свойства контакта колеса с рельсом, такие как радиус вращения, угол контакта и угол наклона колесной пары, варьируются при поперечном – относительно рельса – смещении колесной пары. Зависимость между этим изменениями и поперечной позицией колесной пары определяется профилем колеса и рельса.

Важной характеристикой контакта колеса и рельса является радиус вращения колеса в контактной точке. Фактически радиус может быть разным для правого и левого колес, так как колесная пара смещается по рельсу (радиусы r1 и r2 соответственно на рис. 2).

Когда колесная пара находится в центральной позиции, радиусы вращения левого и правого колес совпадают, т.е. r 1 = r 2 = r. Отличие между радиусами вращения левого и правого колес может быть определено как функция бокового смещения y колесной пары по отношению к ее центральной позиции r(x)=r1(x)r2(x).

Математическая модель Профиль колеса описывается с помощью B-сплайна, для построения которого выбирается множество точек на кромке, основании кромки и поверхности качения колеса (рис. 3). Положение этих точек может варьироваться с целью изменения профиля. Для уменьшения трудоемкости задачи оптимизации положение точек на верху кромки и конической части профиля фиксируется, так как эти части колесного профиля не участвуют в контакте с рельсом.

В качестве компонент вектора y параметров задачи оптимизации выбраны ординаты z i подвижных точек сплайна, т.е.

y=[z1,…,zN], при этом абсциссы данных точек фиксированы.



Pages:   || 2 | 3 | 4 | 5 |   ...   | 7 |
Похожие работы:

«ДОКЛАД НА КОНФЕРЕНЦИИ ТРУДОВОГО КОЛЛЕКТИВА ДИПАКАДЕМИИ МИД РФ (23 октября 2013 г.) Уважаемые коллеги! Я отчитываюсь за период с 20 мая 2012 г., когда прошла предыдущая конференция, и по сегодняшний день. В целом за это время положение Дипломатической академии стабилизировалось. Благодаря активной поддержке и заботе нашего Учредителя, Министерства иностранных дел, мы последовательно преодолеваем прежние недостатки в деятельности Академии, более успешно решаем стоящие перед нашим учреждением...»

«МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ ПРОБЛЕМЫ РАЗВИТИЯ НАУКИ И ОБРАЗОВАНИЯ: ТЕОРИЯ И ПРАКТИКА Сборник научных трудов по материалам Международной научно-практической конференции Часть II 30 сентября 2013 г. АР-Консалт Москва 2013 1 УДК 000.01 ББК 60 Н34 Проблемы развития наук и и образования: теория и практика: Сборник научных трудов по материалам Международной научнопрактической конференции 30 сентября 2013 г. В 4 частях. Часть II. Минво обр. и науки - М.: АР-Консалт, 2013 г.-...»

«УТВЕРЖДЕН Министром торговли Республики Беларусь В.С. Чекановым 20 ноября 2012 г. КАЛЕНДАРЬ ИНОСТРАННЫХ, МЕЖДУНАРОДНЫХ И РЕСПУБЛИКАНСКИХ ВЫСТАВОК (ЯРМАРОК), ОРГАНИЗУЕМЫХ В РЕСПУБЛИКЕ БЕЛАРУСЬ В 2013 ГОДУ I. ИНОСТРАННЫЕ ВЫСТАВКИ (ЯРМАРКИ). _ _ _ _ _ _ _ _ II. МЕЖДУНАРОДНЫЕ ВЫСТАВКИ (ЯРМАРКИ). № Название выставочного Тематика Дата Место Организатор Контактный Адрес сайта и п/п мероприятия проведения проведения телефон электронной почты Оборудование и машины для лёгкой промышленности. Обувь, г....»

«Хищные птицы в динамической среде ІІІ тысячелетия: состояние и перспективы СРАВНИТЕЛЬНЫЙ АНАЛИЗ НАСЕЛЕНИЯ СОКОЛООБРАЗНЫХ РАЗНЫХ ПРИРОДНО-ЛАНДШАФТНЫХ КОМПЛЕКСОВ ИВАНОВСКОЙ ОБЛАСТИ В.Н. Мельников Ивановский государственный университет (Россия) ivanovobirds@mail.ru The comparative analysis of Falconiformes populations in the territories of different landscape complexes of Ivanovo region. – Melnikov V.N. – The information on estimation of the birds of prey species number in 20 stationary...»

«ПМ – ПУ 40 лет Г. В. Алферов, А. М. Камачкин, Ар. С. Шарлай Санкт-Петербургский университет 2009 Печатается по постановлению Редакционно-издательского совета факультета прикладной математики – процессов управления Санкт-Петербургского университета Алферов Г.В.,Камачкин А.М.,Шарлай Ар.С. ПМ – ПУ 40 лет. — СПб.: Издательство Санкт-Петербургского университета, 2009. Книга представляет собой фоторепортаж о создании и поэтапном развитии факультета как на площадках города Ленинграда, так и...»

«isicad.ru № 107, июнь 2013 От редактора. Еще раз — о революциях в САПР Давид Левин....4 Июньский обзор. 160 лет Siemens в России Илья Личман....7 Владимир Николаевич Малюх (1966 – 2013)...13 Российское 3D-ядро RGK представлено международному САПР-сообществу Леонид Баранов, Сергей Козлов, Сергей Кураксин, Николай Снытников..28 Dassault не хочет дать вам бесплатный конвертер SolidWorks-CATIA, но такое предложение обнаружилось на конференции Siemens PLM Рупиндер Тара....32 Семь причин, по которым...»

«ИНСТИТУТ СТРАН СНГ ИНСТИТУТ ДИАСПОРЫ И ИНТЕГРАЦИИ СТРАНЫ СНГ Русские и русскоязычные в новом зарубежье ИНФОРМАЦИОННО-АНАЛИТИЧЕСКИЙ БЮЛЛЕТЕНЬ 95 № 1.04.2004 Москва ИНФОРМАЦИОННО-АНАЛИТИЧЕСКИЙ БЮЛЛЕТЕНЬ СТРАНЫ СНГ. РУССКИЕ И РУССКОЯЗЫЧНЫЕ В НОВОМ ЗАРУБЕЖЬЕ Издается Институтом стран СНГ с 1 марта 2000 г. Периодичность 2 номера в месяц Издание зарегистрировано в Министерстве Российской Федерации по делам печати, телерадиовещания и средств массовых коммуникаций Свидетельство о регистрации ПИ №...»

«Сотрудничающий центр ВОЗ по управлению водными ресурсами в целях укрепления здоровья и коммуникации в области риска Институт Гигиены и Общественного Здоровья Университет Бoнн WaMRi-Newsletter выпуск №9 февраль 2006 Дорогой читатель, Протокол по проблемам воды и здоровья к Конвенции 1992 года по защите и использованию трансграничных водных потоков и международных озер вступил в силу 4 августа 2005 года после его ратификации минимально необходимым количеством сторон – 16 странами. Протокол...»

«219 Несколько прямых, проходящих через точку Фейербаха Ф. Ивлев В этой заметке содержится, в частности, решение задачи 14.8 из задачника Математического просвещения1) Всем известно, что в любом треугольнике существует вписанная окружность. Также хорошо известен факт, что во всяком треугольнике середины его сторон и основания высот треугольника лежат на одной окружности, называемой окружностью девяти точек или окружностью Эйлера треугольника. Если рассматривать разносторонний треугольник (а в...»

«НП РАЭК Пресненская набережная, дом 12, Башня Федерация Запад, этаж 46, Москва, 123100 Тел. (495) 950-56-51 Дайджест СМИ http://www.raec.ru/ Новости Интернет-отрасли 6 июня 2013 г. Новости Минкомсвязи Всемирная встреча на высшем уровне по проблемам информационного общества (WSIS Summit) может пройти в Сочи в 2015 году Заместитель министра связи и массовых коммуникаций Денис Свердлов выступил на 16-м заседании Комитета ООН по наук е и технике в целях развития, который прошел в минувший...»

«Сборник трудов международной научно-практической конференции Инфогео 2013 Аврасина Г. Ю. ГОСУДАРСТВЕННОЕ РЕГУЛИРОВАНИЕ ЦЕНООБРАЗОВАНИЯ ПРИ РЕАЛИЗАЦИИ СЖИЖЕННЫХ УГЛЕВОДОРОДНЫХ ГАЗОВ НАСЕЛЕНИЮ И СУБСИДИРОВАНИЕ ГАЗОСНАБЖАЮЩИХ ОРГАНИЗАЦИЙ ЛЕНИНГРАДСКОЙ ОБЛАСТИ Россия, Контрольно-счетная палата Ленинградской области В настоящее время в России одной из актуальных проблем является повышения эффективности государственного управления по обеспечению потребностей населения в сжиженном углеводородном газе....»

«МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ СОВРЕМЕННОЕ ОБЩЕСТВО, НАУКА И ОБРАЗОВАНИЕ: МОДЕРНИЗАЦИЯ И ИННОВАЦИИ Сборник научных трудов по материалам Международной научно-практической конференции Часть III 31 октября 2013 г. АР-Консалт Москва 2013 1 УДК 000.01 ББК 60 С56 Современное общество, наук а и образование: модернизация и инновации: Сборник научных трудов по материалам Международной научно-практической конференции 31 октября 2013 г. В 5 частях. Часть III. Мин-во обр. и науки -...»

«Вакцинация против вирусных гепатитов А и В у пациентов с хроническими гепатитами вирусной этиологии Профессор Сергей Л. Мукомолов Санкт-Петербургский Институт Пастера Гепатологическая конференция с международным участием Белые ночи Июнь 2013 год Санкт-Петербург Выступление спонсируется компанией ГлаксоСмитКляйн. Информация, включенная в презентацию, отражает мнение автора и может не совпадать с позицией ГлаксоСмитКляйн. Компания ГлаксоСмитКляйн не несет никакой ответственности за любые...»

«Материалы VIII Межрегиональной геологической конференции 70 О ХАРАКТЕРЕ КОНТАКТОВОЙ ЗОНЫ ОФИОЛИТОВОГО АЛЛОХТОНА Ю. КРАКА У ДЕРЕВНИ ЯУМБАЕВО Т.Т. Казанцева1, М.Ю. Аржавитина2 1 Институт геологии УНЦ РАН, Уфа 2 Башкирский государственный университет, Уфа Кракинские горы располагаются на западном склоне Южного Урала, в северной части Зилаирского синклинория. Здесь, среди поля распространения осадочных отложений ордовика, силура и девона, слагающих нормальный стратиграфический разрез западного...»

«Включение вызова в конференцию Шаг 1 При наличии активного вызова нажмите кнопку Конференц-связь. Откроется окно Конференц-связь. Шаг 2 Введите телефонный номер в поле Номер, затем выберите команду Набрать номер. Шаг 3 Выполните одно из следующих действий: • Для осуществления слепой конференции нажмите кнопку Добавить к конференции, когда телефон начинает звонить. КРАТКОЕ Р УКОВОДСТВО • Для осуществления контролируемой конференции дождитесь, пока третья сторона ответит. Если необходимо...»

«Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования РОССИЙСКИЙ УНИВЕРСИТЕТ ДРУЖБЫ НАРОДОВ СОЦИАЛЬНЫЕ ИНТЕРЕСЫ, ПОТРЕБНОСТИ, ЖИЗНЕННЫЕ ПЕРСПЕКТИВЫ СОВРЕМЕННОЙ ТВОРЧЕСКОЙ МОЛОДЁЖИ для учителей СОШ и преподавателей СПО г. Москвы и Московской области СБОРНИК НАУЧНЫХ СТАТЕЙ Москва Российский университет дружбы народов 2013 Утверждено РИС Ученого совета Российского университета дружбы народов Издание подготовлено в рамках реализации Программы...»

«Анна Пивоварова Забытая плацента: символические действия в современной практике домашних родов Практика домашних родов известна в СССР с 1960-х гг., с середины 1980-х она начинает оформляться в социальное движение. В это время в Москве и Петербурге открываются клубы для родителей, в самиздате выходят переводы зарубежных книг о естественных родах. С 1990-х гг. эта практика институализируется и коммерциализируется: открываются курсы подготовки к естественным родам, акушерская помощь на дому...»

«Рассмотрено и принято Утверждаю Ученым Советом НУОВППО ТМУ Ректор НУОВППО ТМУ (протокол № _ от года) профессор Соколов В.М. Положение о порядке подготовки и проведения научных конференций (семинаров) в негосударственном учреждении-организации высшего профессионального и послевузовского образования Тираспольский межрегиональный университет Введено в действие Приказом ректора НУОВППО ТМУ № от __ 20_ года ОБЩИЕ ПОЛОЖЕНИЯ 1.Проведение научных конференций (семинаров) в негосударственном...»

«Приложение 1 ПОЛОЖЕНИЕ об областном конкурсе (конференции) исследовательских работ по учебным предметам учащихся учреждений общего среднего образования 1. ОБЩИЕ ПОЛОЖЕНИЯ ОРГАНИЗАТОРЫ областного конкурса (конференции) исследовательских работ по учебным предметам учащихся учреждений общего среднего образования (далее – конкурс (конференция)): управление образования Могилёвского облисполкома, учреждение образования Могилевский государственный областной институт развития образования....»

«1 ТРЕБОВАНИЯ К ОФОРМЛЕНИЮ ЛИТЕРАТУРЫ, ИЗДАВАЕМОЙ В БрГУ Оригинал-макет издания – издательский оригинал, каждая страница которого полностью совпадает со страницей будущей книги. Авторский оригинал (рукопись) предоставляется распечатанным с одной стороны листа на бумаге белого цвета формата А4 (210 297 мм). Плотность бумаги – 80 г/м. Распечатка должна быть четкой, достаточно яркой. Бледные, неравномерно пропечатанные страницы не допускаются, также недопустимы полосы, пятна и другие дефекты,...»









 
2014 www.konferenciya.seluk.ru - «Бесплатная электронная библиотека - Конференции, лекции»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.