close

Вход

Забыли?

вход по аккаунту

?

Алгоритм эффективного размещения программ на ресурсах многопроцессорных вычислительных систем.

код для вставкиСкачать
Программные продукты и системы
платой за преимущества, которые предоставляет
использование групп институтов и пользователей.
Литература
1. Robinson A. Federated Identity Management in Higher
Education, University of Baltimore, 2006.
2. Rigney C., Simpson S., Willens A., Rubens W. RFC2865
– Remote Authentication Dial In User Service (RADIUS), IETF,
2010. URL: http://tools.ietf.org/html/rfc2865 (дата обращения:
19.09.2012).
3. 802.1X Port-Based Network Access Control, IEEE
Computer Society. 2004. URL: http://standards.ieee.org/getieee802/
download/802.1X-2004.pdf (дата обращения: 19.09.2012).
4. 802.1Q Virtual Bridged Local Area Networks, IEEE
Computer Society, 2005. URL: http://standards.ieee.org/getieee802/
download/802.1Q-2005.pdf (дата обращения: 19.09.2012).
5. Aboba B., Blunk L., Vollbrecht J., Carlson J. RFC3748 –
Extensible Authentication Protocol (EAP), IETF, 2004. URL:
http://www.ietf.org/rfc/rfc3748.txt (дата обращения: 19.09.2012).
6. RFC4511 – Lightweight Directory Access Protocol
(LDAP): The Protocol, IETF. URL: http://tools.ietf.org/html/
rfc4511 (дата обращения: 19.09.2012).
7. Zorn G., Leifer D., Rubens A., Shriver J., M. Holdrege M.,
Goyret I. RFC2868 – RADIUS Attributes for Tunnel Protocol
Support, IETF, 2000. URL: http://tools.ietf.org/html/rfc2868 (дата
обращения: 19.09.2012).
№ 4, 2012 г.
References
1. Robinson A., Federated Identity Management in Higher
Education, Univ. of Baltimore, 2006.
2. Rigney C., Simpson S., Willens A., Rubens W., RFC2865
– Remote Authentication Dial In User Service (RADIUS), IETF,
2010, Available at: http://tools.ietf.org/html/rfc2865 (accessed 19
September 2012).
3. 802.1X Port-Based Network Access Control, IEEE Comp.
Society, 2004, Available at: http://standards.ieee.org/getieee802/download/802.1X-2004.pdf (accessed 19 September
2012).
4. 802.1Q Virtual Bridged Local Area Networks, IEEE
Comp. Society, 2005, Available at: http://standards.ieee.org/getieee802/download/802.1Q-2005.pdf (accessed 19 September
2012).
5. Aboba B., Blunk L., Vollbrecht J., Carlson J., RFC3748 –
Extensible Authentication Protocol (EAP), IETF, 2004, Available
at: http://www.ietf.org/rfc/rfc3748.txt (accessed 19 September
2012).
6. RFC4511 – Lightweight Directory Access Protocol
(LDAP), IETF, Available at: http://tools.ietf.org/html/rfc4511
(accessed 19 September 2012).
7. Zorn G., Leifer D., Rubens A., Shriver J., Holdrege M.,
Goyret I., RFC2868 – RADIUS Attributes for Tunnel Protocol
Support, IETF, 2000, Available at: http://tools.ietf.org/html/rfc2868
(accessed 19 September 2012).
УДК 004.45
АЛГОРИТМ ЭФФЕКТИВНОГО РАЗМЕЩЕНИЯ ПРОГРАММ
НА РЕСУРСАХ МНОГОПРОЦЕССОРНЫХ ВЫЧИСЛИТЕЛЬНЫХ СИСТЕМ
Е.А. Киселёв, стажер-исследователь; О.С. Аладышев, к.т.н., зав. отделом
(Межведомственный суперкомпьютерный центр РАН,
Ленинский просп., 32а, г. Москва, 119991, Россия, kiselev@jscc.ru, aladyshev@jscc.ru)
В статье рассмотрен новый подход к решению задачи эффективного размещения параллельной программы на ресурсах многопроцессорной вычислительной системы, основанный на использовании параллельной реализации алгоритма моделирования отжига. Предложена модель многопроцессорной вычислительной системы, учитывающей неоднородность вычислительных и коммуникационных ресурсов, а также модель параллельной программы, основанная на учете типовых схем передачи данных между ветвями программ. Для повышения качества размещения ветвей
параллельной программы на ресурсах многопроцессорной вычислительной системы предложена параллельная реализация алгоритма моделирования отжига. Проведена оценка влияния конкуренции в сети на время выполнения параллельной программы.
Ключевые слова: граф вычислительной системы, информационный граф параллельной программы, алгоритмы
эффективного размещения программ, алгоритм моделирования отжига.
AN EFFICIENT APPLICATION MAPPING ALGORITHM FOR MULTIPROCESSOR SYSTEMS
Kiselev E.A., Probationer-researcher; Aladyshev O.S., Ph.D., Head of Department
(Joint Supercomputer Center of RAS, 32a, Leninsky Av., Moscow, 119991, Russia, kiselev@jscc.ru, aladyshev@jscc.ru)
Аbstract. This article describes a new application mapping approach for multiprocessor systems based on simulated
annealing algorithm. The authors propose a model of multiprocessor system, which takes into account the heterogeneity of
computing and communication resources, as well as a model of a parallel program based on the identification of typical
communication operations between theprogram threads.The authors propose a parallel implementation of the algorithm
simulation annealing to improve the quality of application mapping on the resources of multiprocessor computer system.The
authors investigated the effect of competition in the network at the application work time.
Keywords: system graph, application graph, parallel algorithms, application mapping, simulated annealing algorithm.
В современных многопроцессорных вычислительных системах (МВС) время выполнения параллельной программы может существенно зависеть от того, как ее отдельные ветви размещены
по вычислительным узлам (ВУ) и процессорам [1].
18
Значительное влияние на время выполнения параллельной программы оказывает конкуренция
между взаимодействующими ветвями за коммуникационный ресурс или память ВУ [2]. В качестве примера можно рассмотреть схемы размещения
Программные продукты и системы
№ 4, 2012 г.
ветвей параллельных программ CG (рис. 1а) и SP
(рис. 1б) из тестового пакета NAS Parallel Benchmarks [3] на процессорах ВУ, при которых через
коммутатор выполняется 8 одновременных пересылок. Увеличение числа конкурирующих пересылок через коммутатор приводит к значительному увеличению времени выполнения программ
CG (рис. 2а) и SP (рис. 2б). В работе [2] отмечается, что конкуренция между ветвями параллельной
программы приводит к увеличению латентности и
уменьшению пропускной способности коммуникационной среды МВС.
Анализ программ, выполняемых на программно-техническом комплексе Санкт-Петербургского государственного политехнического университета (ПТК СПГПУ) и вычислительных ресурсах Межведомственного суперкомпьютерного
центра Российской академии наук (МСЦ РАН),
показал, что в параллельных алгоритмах используются стандартные схемы коммуникационных
обменов (коммуникационные шаблоны). Под
коммуникационным шаблоном будем понимать
схему обмена данными между параллельными
ветвями программы заданного этапа алгоритма.
Как правило, параллельная программа использует
фиксированный набор коммуникационных шаблонов, которые повторяются в процессе ее выполнения. Учет коммуникационных шаблонов при
распределении ветвей параллельной программы
по процессорам МВС позволяет выявлять конкуренцию за коммуникационные ресурсы на различных этапах выполнения программы.
Для формализации оптимизационной задачи по
минимизации времени выполнения параллельного
приложения построим математические модели параллельной программы и МВС.
Модель
параллельной программы
Коммуникационный шаблон может быть представлен в виде графа I=(V, E), вершины V которого
соответствуют ветвям программы, а ребра E представляют информационные связи между ними. На
множестве V зададим отображения:
τ: → , где T соответствует различным типам
вычислительных устройств, а функция τ௜ =
௜ , ௜ ⊆ ставит в соответствие вершине vi графа I
тип вычислительного устройства, на котором может быть запущена ветвь с номером i;
ρ: → ℝା ; функция p(vi) ставит в соответствие
вершине vi графа I количество вычислительных
операций, выполненных ветвью с номером i.
На множестве ребер E заданы отображения:
δ: → ℤା ставит в соответствие ребру eij графа
объем данных, переданный между ветвями с номерами i и j за время выполнения коммуникационного шаблона;
Тест CG NPB
Тест SP NPB
а)
б)
Рис. 1. Схема размещения ветвей по процессорам ВУ при 8 конкурирующих пересылках
Тест SP NPB
200
180
160
140
120
100
80
60
40
20
0
1
2
3
4
5
6
7
8
Количество конкурирующих перессылок между
процессорами
а)
Время выпронения теста (сек)
Время выполнения теста (сек)
Тест CG NPB
620
600
580
560
540
520
500
480
460
1
2
3
4
5
6
7
8
Количество конкурирующих перессылок между
процессорами
б)
Рис. 2. Изменение времени выполнения на 16 процессорах при увеличении числа конкурирующих пересылок
19
Программные продукты и системы
№ 4, 2012 г.
ν: → ା ставит в соответствие ребру eij графа
I число операций приема/передачи данных между
ветвями с номерами i и j за время выполнения параллельной программы.
Параллельная программа, использующая s отличных друг от друга коммуникационных шаблонов, может быть представлена в виде объединения
графов:
I=I1∪I2∪ … ∪Is=(V1∪V2∪ … ∪Vs;
(1)
E1∪E2∪ … ∪Es).
Каждый шаблон ௦ параллельной программы
может быть описан с помощью матрицы смежности ூ௦ . Элемент eij матрицы ூ௦ соответствует
ребру графа программы, отражающему информационную связь между ветвями vi и vj. Если eij=0, то
в коммуникационном шаблоне Is ветви vi и vj не
взаимодействуют друг с другом. Приведем пример
матрицы ூ௦ для коммуникационного шаблона
«кольцо» информационного графа программы:
v
v
v
v
v
0
e,
0
0
v
v
v
e, 0
0
e, 0
0
…
e, 0
e,
e, 0
0
v
0
0
0
0
v
0
0
0
0
На рисунке 3 представлены коммуникационные шаблоны тестов NAS Parallel Benchmarks BT
и CG в виде матриц смежности. Номера строк и
столбцов матриц соответствуют номерам MPIпроцессов, а закрашенные элементы матриц показывают наличие или отсутствие коммуникационного обмена между этими процессами.
Для автоматизации процесса построения информационного графа и выделения коммуникационных шаблонов использовалось программное
средство IGtrace [1].
Модель многопроцессорной
вычислительной системы
Структура МВС может быть представлена в
виде дерева, содержащего M уровней. Каждый
уровень образован отдельным видом вычислительных компонентов МВС (телекоммуникационные шкафы, вычислительные узлы и др.), которые
объединены линиями связи своего уровня. Для
каждого узла дерева определен граф ВС, отражающий структуру коммуникационной среды дочерних элементов следующего уровня. Обозначим
௝௜ ௝௜ , ௝௜ граф ВС с номером j на уровне иерархии i (рис. 4а).
На рисунке 4б приведен пример графа МВС,
который отражает три уровня иерархии коммуникационной среды и включает несколько типов вычислительных устройств ଵ , ଶ . В качестве
v
e,
0
0
0
…
v
0
v
0
v e,
0
0
0
0
0
0
0
0
0
…
e,
0
0
e,
e,
0
e,
0
0
a)
б)
Рис. 3. Коммуникационные шаблоны тестов NAS Parallel Benchmarks BT (a) и CG (б)
20
Программные продукты и системы
№ 4, 2012 г.
а)
б)
Рис. 4. Примеры дерева коммуникационной среды (а) и графа МВС (б)
вычислительного устройства типа T1 может выступать универсальный процессор, а вычислительного устройства типа T2 – графический процессор. МВС состоит из двух ВУ, каждый из которых содержит от двух до четырех многоядерных
процессоров. Первый уровень коммуникационной
среды, представленный графом ଵ଴ , образован низколатентной сетью (например InfiniBand), через
которую взаимодействуют ВУ. На втором уровне
иерархии, представленном графами ଵଵ и ଶଵ , для
выполнения обменных операций между процессорами (ЦП) используется шина. Третий уровень
образован вычислительными ядрами процессоров
и представлен графами ଵଶ , ଶଶ , … , ସଶ. Обмен данными между ядрами процессоров осуществляется
через общую память.
Приведенный на рисунке 4б граф МВС может
быть представлен в виде следующей матрицы
смежности ௌ:
cଵ cଶ cଷ cସ
ଶ
ଶ
lଵ,ଷ
cଵ 0 lଵ,ଶ
0
ଶ
ଶ
l
l
cଶ ଵ,ଶ 0
0 ଶ,ସ
ଶ
cଷ lଵ,ଷ
0
0 lଶଷ,ସ
ଶ
ଶ
cସ 0 lଶ,ସ lଷ,ସ 0
…
cଵ଴
଴
lଵ,ଶ
଴
lଵ,ଶ
଴
lଵ,ଶ
଴
lଵ,ଶ
cଵଵ
଴
lଵ,ଶ
଴
lଵ,ଶ
଴
lଵ,ଶ
଴
lଵ,ଶ
…
଴
cଵଵ lଵ,ଶ
଴
cଵଶ lଵ,ଶ
଴
cଵଷ lଵ,ଶ
଴
lଵ,ଶ
଴
lଵ,ଶ
଴
lଵ,ଶ
cଵଶ
଴
lଵ,ଶ
଴
lଵ,ଶ
଴
lଵ,ଶ
଴
lଵ,ଶ
cଵଷ
଴
lଵ,ଶ
଴
lଵ,ଶ
଴
lଵ,ଶ
଴
lଵ,ଶ
0
0
ଶ
lଵଵ,ଵଷ
ଶ
lଵଶ,ଵଷ
0
…
଴
lଵ,ଶ
଴
lଵ,ଶ
଴
lଵ,ଶ
଴
lଵ,ଶ
଴
lଵ,ଶ
଴
lଵ,ଶ
ଶ
lଵ଴,ଵଵ
ଶ
lଵ଴,ଵଶ
0
0
0
ଶ
ଶ
lଵଵ,ଵଷ
lଵଶ,ଵଷ
௞
Элемент ௜௝
матрицы ௌ соответствует ребру
графа ВС, соединяющему вычислительные устройства ci и cj на уровне иерархии k. Если элемент
௞
௜௝
= 0, значит, прямой линии связи между вычислительными элементами ci и cj не существует.
На множестве вершин ௝௜ графа ௝௜ зададим
отображения:
τ: → , где T соответствует различным типам
вычислительных устройств, а функция τ(௣ ) ставит в соответствие вершине ௣ ∈ ௝௜ тип ௞ вычислительного ядра p;
ρ: → ℤା ; функция ρ(௣ ) ставит в соответствие вершине ௣ ∈ ௝௜ производительность вычислительного ядра p.
Ребра ௞௣ – это линии связи, соединяющие ме௞
жду собой элементы графа ௣௞ , то есть ௜௝
∈
௞ ௞
௞
௣ : ௜௝ = ௜ , ௝ , где ௜ , ௝ ∈ ௣ . На множестве ребер Lk заданы отображения:
௞
ставит в соответстβ: ௞௣ → ℤା ; функция ௜௝
௞
вие ребру ௜௝ значение пропускной способности
линии связи между вычислительными элементами
с номерами i и j на уровне k;
௞
ставит в соответстν: ௞௣ → ℤା ; функция ௜௝
௞
вие ребру ௜௝ значение латентности линии связи
между вычислительными элементами с номерами
i и j на уровне k.
Для автоматизации процесса построения матрицы Ms могут использоваться программные средства из [4]. С помощью тестовой программы необходимо измерить латентность и пропускную способность сети между каждой парой вычислительных устройств и воспользоваться программой визуализации для выделения уровней иерархии
коммуникационной среды на основе полученных
результатов тестирования [4].
Задача эффективного размещения программ
на ресурсах МВС
Пусть задан граф вычислительной системы
S=(C, L), содержащий k различных типов вычислительных устройств. На множестве вершин C
графа ВС заданы отображения τ: → , || = ,
ρ: → ℝା и μ: → ℤା. На множестве ребер заданы отображения β: → ℤା и : → ℤା .
Информационный граф I=(V, E) параллельной
программы, состоящей из s коммуникационных
шаблонов,
представлен
набором
графов
ଵ , ଶ , … , ௦ , для которых выполняется условие
(1). На множестве вершин V заданы отображения
τ: → , || = , μ: → ℤା и ρ: → ℝା . На мно21
Программные продукты и системы
жестве ребер E заданы отображения δ: → ℤା и
ν: → ℤା .
Отображение информационного графа параллельной программы I=(V, E) на структуру вычислительной системы, заданной графом S=(C, L),
обозначается как ϕ: → и представляется матрицей ம = ௜௝ : ∈ , ∈ , где ௜௝ = 1, если
ϕ(௜ ) = ௝ , и ௜௝ = 0, если ϕ(௜ ) ≠ ௝ .
Время выполнения параллельной программы
(Tp) включает в себя время выполнения вычислительных операций наиболее длительной ветви
программы (Tcalc), время выполнения коммуникационных обменов (Tcomm) между ветвями программы и время, затраченное на синхронизацию ветвей
программы (Tsync). Таким образом, время выполнения параллельной программы можно представить в виде суммы:
௣ = ௖௔௟௖ + ௖௢௠௠ + ௦௬௡௖ .
(2)
Для уменьшения значения Tp необходимо
уменьшить значения слагаемых (2). Значение Tsync
в большей степени зависит от того, как реализован
алгоритм программы, поэтому в дальнейшем его
можно не учитывать и принять за константу Tsync=
=const. Значение Tcalc может быть уменьшено путем размещения ветвей программы на более производительных вычислительных устройствах.
Время выполнения обменных операций Tcomm между ветвями программы зависит от характеристик
коммуникационного оборудования и памяти ВС.
С учетом введенных обозначений задача размещения программы на вычислительных ресурсах
многопроцессорной вычислительной системы может быть сформулирована следующим образом.
Требуется найти такое отображение ϕ: → , при
котором
௖௔௟௖ + ௖௢௠௠ → min.
(3)
Время ௖௔௟௖ ௜௠ выполнения ρ௜ вычислительных операций типа τ(௜ ) ветвью ௜ программы на
вычислительном устройстве ௠ типа τ௠ с производительностью ρ௠ можно определить следующим образом:
ρ ( vi )
Tcalcim = τim ⋅ xim ⋅
,
ρ ( cm )
(4)
0, ф(vi ) ≠ τ(ci ),
τim = 
1, τ ( vi ) = τ(cm ).
Тогда время выполнения вычислительных операций наиболее длительной ветви параллельной
программы на наборе вычислительных устройств
может быть определено как
ρ ( vi )
Tcalc = max{τim ⋅ xim ⋅
}, vi ∈ V , cm ∈ C ,
ρ ( cm )
(5)
 0, τ(vi ) ≠ τ(ci ),
τim = 
1, τ ( vi ) = τ(cm ).
Пусть вершины ௜ , ௝ ∈ информационного
графа программы отображены на вершины
22
№ 4, 2012 г.
௠ , ௡ ∈ графа ВС соответственно. Обозначим
Lmn множество ребер, формирующих кратчайший
путь от вершины cm к вершине cn. Тогда время выполнения обменных операций ௖௢௠௠ ௜௝ между ветвями vi и vj можно вычислить по формуле

δ ( eij ) 
 . (6)
Tcommij = xim ⋅ x jn ⋅ ∑  ν ( eij ) ⋅ν ( l pk ) +
β ( l pk ) 
l pk ∈Lmn 

௤
Время ௖௢௠௠ выполнения коммуникационного
шаблона [1; ]с графом ௤ = , ௤ равно максимальной по длительности операции приема/передачи из данного шаблона:


δ ( eij )  


q
 ,
Tcomm
= max  xim ⋅ x jn ⋅ ∑  ν ( eij ) ⋅ν ( l pk ) +
β ( l pk )  
l pk ∈Lmn 




∀௜௝ ∈ ௤ , ∈ 1; .
(7)
Поскольку коммуникационные шаблоны выполняются последовательно, время Tcomm выполнения всех коммуникационных операций можно
вычислить следующим образом:
q
Tcomm = ∑ Tcomm
=
b∈[1; q ]
(8)


δ ( eij ) 




max
⋅
⋅
ν
⋅ν
+
.
x
x
e
l
(
)
(
)


∑
∑
im
jn
ij
pk
β ( l pk ) 
q∈[1; s ]
l pk ∈Lmn 




Подставляя (5) и (8) в (3), получим:


ρ( v ) 

F ( Xϕ ) = max τim ⋅ xim ⋅ i  +
ρ( cm ) 



(9)


δ( eij ) 


 → min,
+ ∑ max xim ⋅ xjn ⋅ ∑  ν( eij ) ⋅ν( lpk ) +
β( lpk ) 
q∈[1;s]
lpk ∈Lmn 





0,
τ
v
≠
τ
c
(
)
(
)

i
i
vi ∈ V , cm ∈ C , τim = 
и ∀eij ∈ E q .
1
,
τ
v
=
τ
c
(
)
(
)

i
m

=
Алгоритмы размещения
параллельных программ на ресурсах МВС
В современных системах управления вычислительными ресурсами и заданиями (СУРЗ), к числу
которых можно отнести СУППЗ, Slurm, Cleo и
Torque, параллельная программа пользователя
рассматривается как совокупность независимо
выполняемых ветвей. Каждая ветвь программы
распределяется на отдельный процессор или вычислительное ядро в соответствии с одним из реализуемых СУРЗ алгоритмов планирования:
PAL (Processor Allocation Linear) – осуществляется выбор первых M свободных процессоров
(вычислительных ядер);
PAR (Processor Allocation Random) – случайным образом выбирает M процессоров (вычислительных ядер) из числа свободных;
TMRR (Task Map Round Robin) – распределяет
ветви программы по процессорам системы из N
вычислительных узлов в следующем порядке:
Программные продукты и системы
№ 4, 2012 г.
первая ветвь программы размещается на первом
процессоре первого по порядку выделенного заданию вычислительного узла (ВУ), вторая – на
первом процессоре второго ВУ, ветвь N – на первом процессоре ВУ N, ветвь N+1 – на втором процессоре первого ВУ и т.д.
Перечисленные алгоритмы не учитывают неоднородность вычислительной и коммуникационной инфраструктур МВС, а также порядок взаимодействия между ветвями и интенсивность выполнения обменных операций.
Задача эффективного размещения ветвей параллельной программы на процессорах МВС является NP-полной. Для ее решения сегодня существует несколько классов алгоритмов. Часть этих
алгоритмов являются эвристическими, то есть
дающими лишь приближенное решение задачи,
часть – точными. В работе [5] отмечается целесообразность применения точных алгоритмов только для систем с малым числом процессоров, не
превышающим 10. Обзор существующих эвристических алгоритмов размещения параллельных
программ показал, что наиболее предпочтительными по точности получаемого результата являются алгоритмы, основанные на методе моделирования отжига (алгоритмы имитации отжига).
В общем виде алгоритм имитации отжига для
решения задачи отображения информационного
графа программы на граф ВС, заданных матрицами MI и MS соответственно, можно описать следующим образом.
Шаг 1. Установить начальную температуру
= ଴ и значение счетчика итераций t равным 0.
Шаг 2. Выбрать начальное произвольное отображение Xϕ (алгоритмом PAL или PAR) и вычислить значение F(Xϕ) функционала (9).
Шаг 3. Выбрать произвольную вершину vi информационного графа.
Шаг 4. Поместить вершину vi на вершину cj
графа ВС. Вычислить новое значение ! ᇱ ఝ функционала (9).
Шаг 5. Вычислить приращение функционала
∆!ц = !ఝ − ! ᇱ ఝ . Если ∆!ఝ ≤ 0,
вершина vi закрепляется за вершиной cj. Если
∆!ఝ > 0, закрепление вершины vi за вершиной
−
( )
∆F X ϕ
cj осуществляется с вероятностью e T .
Шаг 6. Если все вершины cj были пройдены,
понизить температуру T по закону = α ∙ ଴ , где α
– параметр, влияющий на скорость понижения
температуры, и перейти к шагу 3. Если зафиксирован выход функционала !஦ на стационарное
значение или текущее значение T является конечным, завершить работу алгоритма. В остальных
случаях увеличить значение j на 1 и перейти к шагу 4.
Обозначим как "(
ூ , ௌ , ଴ ) приведенный
алгоритм отображения вершин информационного
графа I на вершины графа ВС S с заданными начальной и конечной температурами соответственно.
Эффективность (время выполнения и точность) алгоритма "(
ூ , ௌ , ଴ ) зависит от начальной температуры T0, предельного числа итераций (значение параметра α), размера области
сходимости (числа последовательных итераций, в
течение которых значение функционала остается
неизменным). При увеличении указанных параметров возрастают точность и время выполнения
алгоритма.
Параллельная реализация
алгоритма имитации отжига
Одним из подходов к уменьшению времени
работы алгоритма "(
ூ , ௌ , ଴ ) является его
распараллеливание. В настоящее время известно
несколько способов распараллеливания алгоритма
имитации отжига.
1. Параллельный независимый запуск алгоритма имитации отжига на нескольких узлах с различными начальными приближениями. В качестве
результата выбирается лучшее решение из найденных на всех узлах. Скорость поиска решений и
их качество практически не отличаются от классического последовательного алгоритма.
2. Параллельный запуск алгоритма имитации
отжига с периодическим обменом информацией о
полученных решениях, при этом узлы вычислительной системы производят рестарт имитации
отжига из найденных решений с наименьшим значением целевой функции. Такой способ универсален и приемлем для любых задач оптимизации, но
требует больших затрат на обмен данными.
3. Разбиение пространства решений на области
и поиск решения в каждой области отдельно с последующим объединением результатов поиска и
выбором из них лучшего решения. Такой способ
может эффективно применяться на широком классе архитектур, но требует разработки способа разбиения на области для каждой решаемой задачи.
Первые два способа распараллеливания алгоритма имитации отжига предполагают, что на каждом из вычислительных узлов доступна своя копия графа ВС и информационного графа программы. Данное условие может затруднять реализацию
предложенных подходов для графов параллельной
программы и ВС, которые невозможно целиком
разместить в памяти одного ВУ. Поэтому для распараллеливания алгоритма имитации отжига был
выбран способ, основанный на разбиении пространства поиска решений на независимые области.
Обозначим ூ матрицу смежности информационного графа программы размера #, а ௌ –
матрицу смежности графа ВС размера $, где
# ≪ $. Выполним декомпозицию графа ВС по ВУ
23
Программные продукты и системы
Экспериментальные результаты
Для оценки эффективности разработанного алгоритма было выполнено размещение параллельных программ из тестового пакета NAS Parallel
Benchmarks на ресурсах МВС с сетевой топологией «двумерная решетка» и состоящей из 64 процессоров. Запуск тестов осуществлялся на 8, 16,
32 и 64 процессорах. Для каждого теста с помощью функционала (9) вычислялось время выполнения коммуникационных обменов между ветвями после их размещения на процессорах с помощью алгоритмов PAL и PAR. Полученные схемы
размещений улучшались с помощью разработанного алгоритма PSA, и вычислялось текущее время выполнения коммуникационных обменов. На
рисунке 5 представлена диаграмма изменения
времени выполнения тестов NAS Parallel Benchmarks и двух реализаций параллельного алгоритма
умножения разреженной матрицы на вектор
(MV_ALL и MV_Orig) после улучшения схем
размещения PAL (PAL+PSA) и PAR (PAR+PSA).
Среднее время построения новой схемы размещения ветвей на процессорах МВС с помощью алгоритма PSA не превышало 10 % от времени выполнения тестовой программы.
Как видно из рисунка 5, для двух тестов NAS
Parallel Benchmarks (EP и FT) и программы
24
40
Сокращение времени выполнения
программы (%)
путем разбиения матрицы ௌ на k частей. Обозначим ௌ௜ , ∈ [1; ], часть матрицы ௌ, размещенную в памяти i-го ВУ.
Параллельная реализация алгоритма имитации
отжига %"(
ூ , ௌ , , ଴ ) для k ВУ может быть
описана следующим образом.
Шаг 1. Выполнить в цикле.
Шаг 1.1. Сформировать новое допустимое сочетание (Сnm )i элементов матрицы смежности
графа ВС ௌ. Допустимым является сочетание,
соответствующее назначению ветви параллельной
программы на один процессор или вычислительное ядро.
Шаг 1.2. Передать значения элементов (Сnm )i
очередному ВУ i в качестве элементов матрицы
ௌ௜ для выполнения алгоритма моделирования отжига.
Шаг 1.3. На каждом процессоре i-го ВУ выполнить
алгоритм
имитации
отжига
"(
ூ , ௌ௜ , ଴ ).
Шаг 1.4. Для каждого ВУ выбрать лучшее решение из найденных на всех процессорах.
Шаг 1.5. Выбрать лучшее решение из найденных на всех ВУ.
Шаг 2. Если все сочетания рассмотрены, завершить выполнение алгоритма и принять в качестве искомого лучшее из найденных в процессе
выполнения алгоритма решение. Иначе перейти на
шаг 1 алгоритма.
№ 4, 2012 г.
35
30
25
20
15
10
5
0
PAR + PSA
PAR + PSA
Параллельные программы
Рис. 5. Сокращение времени выполнения параллельных
программ после улучшения схем размещения
PAL и PAR алгоритмом PSA
MV_ALL не удалось уменьшить время выполнения. Это объясняется тем, что в первых двух программах объем вычислений преобладает над количеством коммуникационных операций, а в
третьей реализован обмен каждый-с-каждым.
Для остальных программ время выполнения удалось сократить от 10 до 43 %.
Предложенный алгоритм отображения графа
программы на граф ВС был реализован на языке
С++ в виде программного модуля, который в
дальнейшем может быть интегрирован в СУРЗ
МВС. Запуск алгоритма осуществлялся с использованием программного комплекса «Пирамида»
[6] на вычислительных ресурсах ПТК СПГПУ и
МСЦ РАН.
В заключение отметим следующее. В МВС
время выполнения параллельной программы зависит от того, как ее отдельные ветви размещены по
вычислительным узлам и процессорам. Значительное влияние на время выполнения параллельной программы, а также латентность и пропускную способность коммуникационной среды оказывает конкуренция между взаимодействующими
ветвями за коммуникационный ресурс.
Для уменьшения времени выполнения параллельной программы и сокращения конкуренции в
сети предложен подход, основанный на выявлении и учете типовых коммуникационных операций в программе (коммуникационных шаблонов)
при ее размещении на ресурсах МВС. Разработан
параллельный алгоритм размещения программ на
ресурсах МВС, основанный на методе моделирования отжига.
Результаты проведенных экспериментов показали существенное сокращение времени выполнения параллельных программ и целесообразность
применения разработанного подхода и алгоритма
для решения задачи эффективного размещения
параллельной программы на ресурсах МВС. Программная реализация предложенного алгоритма
размещения ветвей параллельной программы на
Программные продукты и системы
вычислительных ресурсах МВС может быть интегрирована в СУРЗ МВС.
Литература
1. Киселев Е.А. Построение информационного графа параллельной программы на основе данных профилирования и
трассировки // Научный сервис в сети Интернет: экзафлопсное
будущее: тр. Междунар. суперкомп. конф. (19–24 сентября
2011, г. Новороссийск). М.: Изд-во МГУ, 2011. С. 541–546.
2. Chou Chen-Ling, MarculescuRadu. Contention-aware
Application Mapping for Network-on-Chip Communication
Architectures. Computer Design, 2008. ICCD 2008. IEEE Intern.
Conf. 2008.
3. NAS Parallel Benchmarks/ URL: http://www.nas.nasa.
gov/publications/npb.html (дата обращения: 10.09.2012).
4. Аладышев О.С., Киселев Е.А., Корнеев В.В., Шабанов
Б.М. Программные средства построения коммуникационной
схемы многопроцессорной вычислительной системы. Высокопроизводительные вычислительные системы: матер. VII Междунар. науч. молодеж. школы. Таганрог: Изд-во ТТИ ЮФУ,
2010. С. 76–79.
5. Greening D.R. Parallel simulated annealing techniques,
Emergent computation. 1991, pp. 293–306.
6. Баранов А.В., Киселев А.В., Киселев Е.А., Корнеев
В.В., Семенов Д.В. Программный комплекс «Пирамида» организации параллельных вычислений с распараллеливанием по
№ 4, 2012 г.
данным // Научный сервис в сети Интернет: суперкомпьютерные центры и задачи: тр. Междунар. суперкомп. конф. (20–25
сентября 2010, г. Новороссийск). М.: Изд-во МГУ, 2010.
С. 299–302.
References
1. Kiselev E.A., Trudy Mezhdunar. superkomp. konf.
«Nauchny servis v seti Internet: ekzaflopsnoe buduschee» [Proc. of
the Intern. Supercomp. Conf. «Scientific services in the Internet:
exascale future»], Moscow, MSU, 2011, pp. 541–546.
2. Chou Chen-Ling, Marculescu Radu, IEEE Intern. Conf.
«Computer Design», 2008, pp. 5–10.
3. NAS Parallel Benchmarks, Available at: http://www.nas.
nasa.gov/publications/npb.html (accessed 10 September 2012).
4. Aladyshev O.S., Kiselev E.A., Korneev V.V., Shabanov B.M., Materialy 7 Mezhdunar. Nauch. Molodezhnoy Shkoly
[Proc. of the 7th Intern. Workshop on Modern School], Taganrog,
Taganrog Technolog. Inst. of Southern Federal Univ., 2010,
pp. 76–79.
5. Greening D.R., Emergent computation, 1991, pp. 293–306.
6. Baranov A.V., Kiselev A.V., Kiselev E.A., Korneev V.V.,
Semenov D.V., Trudy Mezhdunar. Superkomp. Konf. «Nauchny
servis v seti Internet: superkomp. centry i zadachi» [Proc. of the
Intern. Supercomp. Conf. «Scientific services in the Internet:
supercomputing centers and objectives»], Moscow, MSU, 2010,
pp. 299–302.
УДК 004.272, 004.31
НАСТРОЙКА ВЫПОЛНЕНИЯ ПАРАЛЛЕЛЬНЫХ ПРОГРАММ
П.Н. Телегин, к.т.н., зав. отделом
(Межведомственный суперкомпьютерный центр РАН,
Ленинский просп., 32а, г. Москва, 119991, Россия, ptelegin@jscc.ru)
Статья посвящена разработке методов оптимизации настройки выполнения программ для параллельных вычислительных систем с распределенной памятью (в данном случае на выбранном оборудовании). Настройка выполнения – это выбор параметров для параллельной программы с учетом специфики используемого оборудования. Под
параметрами подразумеваются схема параллельного выполнения программы и распределение работы между процессорами (ядрами). В статье рассматривается выполнение программы, над которой предварительно проведена параллельная декомпозиция и выделены псевдолинейные участки, представляющие собой простые операции, структуры
ветвления, циклы и неструктурированные участки с одним входом и выходом. Описаны декомпозиция программы и
ее выполнение в потоковой, динамической и статической схемах. Исследованы три способа оценки времени работы
программных фрагментов – предсказание времени работы, профилирование, оценка пользователем. Описан эффект
усиления при предсказании времени работы программных фрагментов. Отношение времени коммуникаций к времени операций в процессорах велико, поэтому требуется тщательный анализ программы для принятия решения о ее
параллельном выполнении. Исследуется планирование параллельных циклов. Приводятся формулы оценки эффективности выполнения циклов в разных схемах для разных случаев множеств передаваемых данных. Описанные методы оценки производительности реализованы в системе автоматизированного распараллеливания Ratio. Приведено
сравнение предсказанного и реального ускорений программы интегрирования. Параллельная программа, использующая динамическую модель, была построена с помощью системы автоматизированного распараллеливания Ratio
и выполнялась на суперкомпьютере МВС-100К.
Ключевые слова: параллельная программа, эффективность выполнения программ, настройка программ, модель
программы, автоматическое распараллеливание, кластер, планирование, схема программы, декомпозиция программы.
TUNING EXECUTION OF PARALLEL PROGRAMS
Telegin P.N., Ph.D., Head of Department
(Joint Supercomputer Center of RAS, 32a, Leninsky Av., Moscow, 119991, Russia, ptelegin@jscc.ru)
Аbstract. The article describes issues related to development of optimization methods for tuning programs for distributed
memory parallel computers. Optimization tuning of parallel programs for given hardware is discussed. Tuning means choice
25
Документ
Категория
Без категории
Просмотров
7
Размер файла
623 Кб
Теги
многопроцессорных, размещения, алгоритм, программа, система, эффективного, вычислительной, ресурса
1/--страниц
Пожаловаться на содержимое документа