Вычислений для решения задач проблем экологии



жүктеу 46.2 Kb.

Дата14.09.2017
өлшемі46.2 Kb.

ПРИМЕНЕНИЕ МЕТОДОВ РАСПРЕДЕЛЕННЫХ

ВЫЧИСЛЕНИЙ ДЛЯ РЕШЕНИЯ ЗАДАЧ

ПРОБЛЕМ ЭКОЛОГИИ

А.А. Исахов, А.К. Хикметов

Казахский национальный университет имени аль-Фараби

e-mail: aliisahov@mail.ru, kivt@mail.ru

In this work on the example of numerical simulation for environmental problems

on high performance computing clusters, the paper considers the technological aspects

of the development of scalable parallel computing using MPI. The calculated values of

acceleration, to assess the scalability of the algorithm and its implementation. These

results show that the algorithm has a significant amount of potential overlap and good,

in terms of parallel structure that allows us to hope for acceleration close to the line

depending on the number of processors.

Введение


Темпы развития цивилизации и ее воздействие на природные ресурсы привели к тому,

что контроль и управление окружающей средой стали актуальнейшими проблемами

современности.

В настоящее время компьютеризация научных исследований, прогнозирования

состояния

окружающей

среды,

экологического



менеджмента,

рационального

использования

природных

ресурсов,

реагирования

на

стихийные



бедствия

и

техногенные аварии, привела к формированию понимания, что решение актуальных



проблем информатизации исследований для задач окружающей среды имеет общие

черты. Возможности информационных систем по проблемам окружающей среды

возросли благодаря созданию высокопроизводительных вычислительных систем,

позволяющих проводить трехмерное моделирование природных процессов в реальном

времени или времени оперативного прогноза, а также производить сложные сценарные

расчеты долгосрочных последствий воздействий на окружающую среду.

Предметом

исследования

настоящей

работы


является

моделирование

распространения примеси в приземном слое атмосферы на основе полных трехмерных

уравнений Навье-Стокса,с применением параллельных вычислительных технологий.

1. Постановка задачи

Крупномасштабные движения в приземном слое атмосферы приближенно описываются

системой уравнений, включающей уравнения движения, уравнения неразрывности и

уравнение концентрации:

∂u

i

∂t



+

∂u

j



u

i

∂x



j

=



∂p

∂x

i



+

1

Re



∂x

j



(

∂u

i



∂x

j

)



∂τ

ij



∂x

j

(1)



1

2

∂u

j



∂x

j

= 0



(i = 1, 2, 3).

(2)


τ

ij

= u



i

u

j



− ¯u

i

¯



u

j

.



В данной работе для моделирования подсеточных напряжений используется модель

Смагоринского [1]:

τ

ij



δ

ij

3



τ

kk

=



−2ν

T

¯



S

ij

.



Для моделирования распространения компонент ракетного топлива в приземном

слое атмосферы используется уравнение вида:

∂C

∂t

+



∂u

j

C



∂x

j

=



∂x

j



(

(D + α


T

)

∂C



∂x

j

)



,

(3)


где u

i

– компоненты скорости, D – коэффициент диффузий, α



T

= ν


t

/ Pr. Поставлены

соответствующие граничные и начальные условия.

2. Численный алгоритм

Численный алгоритм решения задачи включает в себе несколько этапов реализации.

Расчет поля скорости течения жидкости или газа производится методом расщепления

по физическим параметрам. На первом этапе сначала находится промежуточное

поле скорости, при решении которого возникает проблема реализации численных

алгоритмов для конвективных членов уравнений [2]. Так как исследуется течение

при больших числах Рейнольдса, возникает проблема аппроксимации этих членов

уравнения, для которой использовались разностные схемы против потока высокого

порядка точности [3-4]. Система уравнений решается методом Томаса. На следующем

этапе реализации численного алгоритма вводится поправка на давление, и поле

давления находится из уравнения Пуассона с граничными условиями Неймана.

На конечном этапе производится расчет поля скорости с учетом поправки на

давление. При решении трехмерного уравнения Пуассона для давления с неоднородной

правой частью использовался метод Фурье в комбинации с матричной прогонкой.

Предлагается

сегментный

алгоритм


параллельного

проведения

вычислений

по

физическим процессам, при этом работа всех модулей-сегментов вычислительного



ядра программы инициируется одновременно. Кроме того, в каждом сегменте может

одновременно стартовать работа подсегментов [5].

Расчеты производились на кластерной системе ДГП НИИ ММ при КазНУим.аль-

Фараби URSA на сетках 240х240х240 и 360х360х360.При использовании до 120

процессоров результаты вычислительного эксперимента показали наличие хорошего

ускорения при решении задач данного класса. Основное внимание уделялось сравнению

пересылок и времени вычислений при различных способах декомпозиции. На первом

этапе использовалась одна общая программа, размеры массивов от запуска к запуску

не менялись, на каждом процессорном элементе нумерация элементов массивов

начиналась с нуля. Несмотря на то, что в соответствии с теоретическим анализом 3D

декомпозиция является оптимальным вариантом распараллеливания, вычислительные

эксперименты показали что лучших результатов можно достичь, используя 2D

декомпозицию при числе используемых процессов от 25 до 120 ( рис.1).


3

Рис. 1. График ускорения

Рис. 2. Время вычислений без учета затрат на пересылку данных для различных способов

декомпозиции.

Исходя

из

предварительного



теоретического

анализа,


на

графике


должны

присутствовать

следующие

закономерности.

Время

вычислений



без

учета


межпроцессорных коммуникационных затрат при разных способах декомпозиции

должно примерно совпадать для одинакового числа процессоров и уменьшаться как

T

calc


/p. В реальности же расчетные данные(рис.2) указывает на то, что использование

2D декомпозиции на различных сетках дает минимальные затраты на проведение

вычислений и расчетные графики зависимости времени вычислений от числа

используемых процессоров размещаются существенно выше, чем T

calc

/p.


Анализируя данные, можно отметить, что время пересылки сечений массивов в MPI-

FORTRAN–программе зависит от их типов. Поэтому наименьшие затраты на передачу

данных дает 1D декомпозиция, наибольшие – 3D декомпозиция, причем это отличие

становится более существенным при увеличении размера сечения.



4

3. Результаты моделирования

Для детального исследования загрязнения приземного слоя атмосферы решается

задача падения 2-ой ступени ракетоносителя (РН) при наличии боковых потоков

и сравнительному анализу результатов моделирования с изолиниями загрязнения

растительного покрова. Моделируется распределение компонентов ракетного топливо

(КРТ) после падения 2-ой ступени РН при наличии переменных геострофических

ветров умеренной силы, характерных для времени падения РН. На рисунках 3-4

представлено вертикальное сечение облака сформировавшегося при ударе о землю

2-ой ступени РН. Красным цветом выделена наибольшая концентрация КРТ. На

рисунках 5-6 приведен анализ сравнения расчетных данных с картой загрязнения

растительного покрова в месте падения 2-ой ступени РН. Полная динамика возмущения

воздушной массы вплоть до затухания находится в пределах расчетной области. При

падении 2-ой ступени ракетоносителя "Протон"с ударением о поверхность земли с

последующим взрывом большая часть топлива не сгорает, а рассеивается в атмосфере,

так как температура при взрыве достаточно высока, а летучесть несимметричного

диметилгидразина(НДМГ) с увеличением температуры резко возрастает.

Рис. 3. Распределение концентраций ракетного топлива после аварийного падения 2-ой ступени

РН "Протон"на 400 минуте в вертикальном сечении.

4. Заключение

В работе на примере задачи численного моделирования на высокопроизводительном

вычислительном кластере задачи распространения компонент ракетного топлива в

приземном слое атмосферы, рассматриваются технологические аспекты разработки

масштабируемых параллельных вычислений с использованием библиотеки MPI.

Рассмотрены основные технологические этапы в разработке сложных вычислительных

программ для систем с массовым параллелизмом: выбор модели программы и схемы

распараллеливания; определение схемы вычислений и программирование задачи;


5

Рис. 4. Распределение концентраций ракетного топлива после аварийного падения 2-ой ступени

РН "Протон"на 720 минуте в вертикальном сечении.

Рис. 5. Изолинии концентрации компонент ракетного топлива после аварийного падения 2-ой

ступени РН "Протон ветер юго-западный. Сравнение с картой загрязнения растительности на

месте падения.



6

Рис. 6. Изолинии концентрации компонент ракетного топлива на 320 минуте после аварийного

падения 2-ой ступени РН "Протон ветер северо-западный. Сравнение с картой загрязнения

растительности на месте падения.

компиляция, отладка и тестирование; трассировка и профилирование программы;

проведение вычислительного эксперимента; анализ результатов. Получены расчетные

значения ускорений, позволяющие оценить масштабируемость алгоритма и его

программной реализации. Эти результаты показывают, что алгоритм обладает

значительным объемом потенциального параллелизма и хорошей, с точки зрения

распараллеливания структурой, что позволяет надеяться на получение ускорений

близких к линейным в зависимости от количества используемых процессоров.

Список литературы

[1] Lesieur M., Metais O., Comte P Large eddy simulation of turbulence. New York, Cambridge

University Press, 2005. 219 p.

[2] Яненко Н.Н. Методы дробных шагов решения многомерных задач математической

физике. - Н: Наука, 1967. 197 с.

[3] Флетчер К. Вычислительные методы в динамике жидкостей: В 2-х томах: Т.2. - М.: Мир,

1991. 552 с.

[4] Роуч П. Вычислительная гидродинамика. - М.: Мир, 1972. 612 с.

[5] Самарский А. А., Гулин А.В. Численные методы. – М.: Наука, 1989. 432 с.

[6] Белоцерковский О.М., Опарин А.М., Чечеткин В.М.

Турбулентность: новые



подходы. - М.: Наука, 2003. 286 с.




©emirb.org 2017
әкімшілігінің қараңыз

войти | регистрация
    Басты бет


загрузить материал