Сглаживание границ между доменами поверхностной расчетной сетки

  • Andrey Dmitrievich Bagrov Федеральный научный центр Научно-исследовательский институт системных исследований Российской академии наук http://orcid.org/0000-0002-9473-1925
  • Alexey Anatolyevich Rybakov Федеральный научный центр Научно-исследовательский институт системных исследований Российской академии наук http://orcid.org/0000-0002-9755-8830

Аннотация

Для эффективного использования суперкомпьютерных вычислительных ресурсов при решении задач имитационного моделирования важное значение имеет качественная декомпозиция расчетной сетки. Современные расчетные задачи работают с входными данными большого объема, из-за чего обработка их на одном вычислительном узле за разумное время невозможна. В частности, для проведения расчетов на больших расчетных сетках требуется выполнение их декомпозиции на отдельные домены. При этом каждый из доменов обрабатывается на своем вычислительном узле, а для поддержания целостности задачи вычислительные узлы обмениваются между собой расчетными данными, пересекающими границы доменов расчетной сетки. Качество декомпозиции расчетной сетки характеризуется такими параметрами, как равномерность распределения ячеек по доменам, максимальная длина границы между двумя доменами, суммарная длина всех границ между всеми парами доменов и многими другими. Важнейшим индикатором качества декомпозиции сетки является равномерность распределения ячеек по доменам, так как скорость обсчета всей задачи характеризуется прежде всего скоростью обработки самого крупного домена. Однако, также высокую значимость имеет максимальная длина границы между парами доменов, так как значение данного параметра определяет скорость выполняемых обменов данными между вычислительными узлами. При уменьшении шага по времени в расчетных задачах и увеличении количества вычислительных узлов (высокая степень распараллеливания), доля межпроцессных обменов существенно возрастает, и уменьшение длины границы между доменами существенным образом влияет на общее время работы расчетной задачи. В данной статье рассматривается алгоритм сглаживания границ между доменами, в процессе которого длины границ уменьшаются, при этом не ухудшая равномерность распределения ячеек сетки между доменами. Численные эксперименты показали, что применение предложенного алгоритма приводит к сокращению длин границ между доменами примерно 10%, что приводит к ускорению обмена данными в процессе проведения расчетов.

Сведения об авторах

Andrey Dmitrievich Bagrov, Федеральный научный центр Научно-исследовательский институт системных исследований Российской академии наук

инженер-программист Межведомственного суперкомпьютерного центра Российской академии наук

Alexey Anatolyevich Rybakov, Федеральный научный центр Научно-исследовательский институт системных исследований Российской академии наук

ведущий научный сотрудник Межведомственного суперкомпьютерного центра Российской академии наук, кандидат физико-математических наук

Литература

1. Aldinucci M., Cesare V., Colonnnelli I., et al. Practical parallelization of scientific applications with OpenMP, OpenACC, and MPI. Journal of Parallel and Distributed Computing. 2021; 157:13-29. (In Eng.) DOI: https://doi.org/10.1016/j.jpdc.2021.05.017
2. Minami K. Supercomputers and Application Performance. In: Ed. by M. Geshi. The Art of High Performance Computing for Computational Science, vol. 2. Springer, Singapore; 2019. p. 1-9. (In Eng.) DOI: https://doi.org/10.1007/978-981-13-9802-5_1
3. Savin G.I., Benderskiy L.A., Lyubimov D.A., Rybakov A.A. RANS/ILES Method Optimization for Effective Calculations on Supercomuter. Lobachevskii Journal of Mathematics. 2019; 40(5):566-573. (In Eng.) DOI: https://doi.org/10.1134/S1995080219050172
4. Utkin A.V., Fomin V.M., Golovneva E.I. Parallel molecular dynamics for silicon and silicon carbide: MPI, CUDA and CUDA-MPI Implementation. AIP Conference Proceedings. 2020; 2288(1):030083. (In Eng.) DOI: https://doi.org/10.1063/5.0028297
5. Wende F., Marsman M., Zhao Z., Kim J. Porting VASP from MPI to MPI+OpenMP [SIMD]. In: Ed. by B. de Supinski, S. Olivier, C. Terboven, B. Chapman, M. Müller. Scaling OpenMP for Exascale Performance and Portability. IWOMP 2017. Lecture Notes in Computer Science, vol. 10468. Springer, Cham; 2017. p. 107-122. (In Eng.) DOI: https://doi.org/10.1007/978-3-319-65578-9_8
6. Golovchenko E., Dorofeeva E., Gasilova I., Boldareva A. Numerical Experiments with New Algorithms for Parallel Decomposition of Large Computational Meshes. In: Advances in Parallel Computing. Parallel Computing: Accelerating Computational Science and Engineering (CSE). 2014; 25:441-450. (In Eng.) DOI: https://doi.org/10.3233/978-1-61499-381-0-441
7. AbdulRazzaq A.A., Hamad Q.S., Taha A.M. Parallel implementation of maximum-shift algorithm using OpenMP. Indonesian Journal of Electrical Engineering and Computer Science. 2021; 22(3):1529-1539. (In Eng.) DOI: https://doi.org/10.11591/ijeecs.v22.i3.pp1529-1539
8. Aznaveh M., Chen J., Davis T.A., et al. Parallel GraphBLAS with OpenMP. 2020 Proceedings of the SIAM Workshop on Combinatorial Scientific Computing. Society for Industrial and Applied Mathematics; 2020. p. 138-148. (In Eng.) DOI: https://doi.org/10.1137/1.9781611976229.14
9. Suciu A., Hangan A., Marginean A., et al. Parallel implementation of a PIC simulation algorithm using OpenMP. Proceedings of the Federal Conference on Computer Science and Information Systems (FedCSIS). IEEE Press, Sofia, Bulgaria; 2020. p. 381-385. (In Eng.) DOI: https://doi.org/10.15439/2020F130
10. McDoniel W., Höhnerbach M., Canales R., Ismail A.E., Bientinesi P. LAMMPS' PPPM Long-Range Solver for the Second Generation Xeon Phi. In: Ed. by J. M. Kunkel, R. Yokota, P. Balaji, D. Keyes. High Performance Computing. ISC High Performance 2017. Lecture Notes in Computer Science, vol. 10266. Springer, Cham; 2017. p. 61-78. (In Eng.) DOI: https://doi.org/10.1007/978-3-319-58667-0_4
11. Malas T., Kurth T., Deslippe J. Optimization of the Sparse Matrix-Vector Products of an IDR Krylov Iterative Solver in EMGeo for the Intel KNL Manycore Processor. In: Ed. by M. Taufer, B. Mohr, J. Kunkel. High Performance Computing. ISC High Performance 2016. Lecture Notes in Computer Science, vol. 9945. Springer, Cham; 2016. p. 378-389. (In Eng.) DOI: https://doi.org/10.1007/978-3-319-46079-6_27
12. Cook B., Maris P., Shao M. High Performance Optimizations for Nuclear Physics Code MFDn on KNL. In: Ed. by M. Taufer, B. Mohr, J. Kunkel. High Performance Computing. ISC High Performance 2016. Lecture Notes in Computer Science, vol. 9945. Springer, Cham; 2016. p. 366-377. (In Eng.) DOI: https://doi.org/10.1007/978-3-319-46079-6_26
13. Ka Sing J.T., Ullah Sheikh U., Mokji M., et al. Hadamard Transform Improvement for HEVC using Intel AVX-512. 2019 IEEE 9th Symposium on Computer Applications & Industrial Electronics (ISCAIE). IEEE Press, Malaysia; 2019. p. 310-315. (In Eng.) DOI: https://doi.org/10.1109/ISCAIE.2019.8743904
14. Shabanov B.M., Rybakov A.A., Shumilin S.S. Vectorization of High-performance Scientific Calculations Using AVX-512 Intruction Set. Lobachevskii Journal of Mathematics. 2019; 40(5):580-598. (In Eng.) DOI: https://doi.org/10.1134/S1995080219050196
15. Rybakov A.A., Shumilin S.S. Vectorization of the Riemann solver using the AVX-512 instruction set. Program Systems: Theory and Applications. 2019; 10(3):41-58. (In Eng.) DOI: https://doi.org/10.25209/2079-3316-2019-10-3-41-58
16. Urschel J.C., Zikatanov L.T. Spectral bisection of graphs and connectedness. Linear Algebra and its Applications. 2014; 449:1-16. (In Eng.) DOI: https://doi.org/10.1016/j.laa.2014.02.007
17. Zhao L., Liu Y., Zhang C., Zhang X. Automatic optimal block decomposition for structured mesh generation using genetic algorithm. Journal of the Brazilian Society of Mechanical Sciences and Engineering. 2019; 41(1):10. (In Eng.) DOI: https://doi.org/10.1007/s40430-018-1510-0
18. Karypis G., Kumar V. A Fast and High Quality Multilevel Scheme for Partitioning Irregular Graphs. SIAM Journal on Scientific Computing. 1998; 20(1):359-392. (In Eng.) DOI: https://doi.org/10.1137/S1064827595287997
19. Golovchenko E.N. Obzor algoritmov dekompozicii grafov [Survey of graph partitioning algorithms]. Keldysh Institute PREPRINTS. 2020; (2):1-38. (In Russ., abstract in Eng.) DOI: https://doi.org/10.20948/prepr-2020-2
20. Farhat C. A simple and efficient automatic fem domain decomposer. Computers & Structures. 1988; 28(5):579-602. (In Eng.) DOI: https://doi.org/10.1016/0045-7949(88)90004-1
21. Preis R., Diekmann R. PARTY - a Software Library for Graph Partitioning. In: Ed. by B. H. V. Topping. Advances in Computational Mechanics for Parallel and Distributed Processing. Civil-Comp Press, Edinburgh, UK; 1997. p. 63-71. (In Eng.) DOI: https://doi.org/10.4203/ccp.45.3.1
22. Yakobovskii M.V. Inkremental'nyj algoritm dekompozicii grafov [An incremental algorithm for graph decomposition]. Vestn. Nizhegorod. Univ. im. N.I. Lobachevskogo. Ser. Mat. Model. Optim. Upr. 2005; (1):243-250. (In Russ.)
23. Rybakov A.A., Chopornyak A.D. Decomposition of a Surface Unstructured Computation-al Mesh for Scaling Computations on a Supercomputer. Sovremennye informacionnye tehnologii i IT-obrazovanie = Modern Information Technologies and IT-Education. 2020; 16(4):851-861. (In Russ., abstract in Eng.) DOI: https://doi.org/10.25559/SITITO.16.202004.851-861
24. Wright N.J., Dosanjh S.S., Andrews A.K., et al. Cori: A Pre-Exascale Supercomputer for Big Data and HPC Applications. Advances in Parallel Computing. Big Data and High Performance Computing, vol. 26. IOS Press; 2015. p. 82-100. (In Eng.) DOI: https://doi.org/10.3233/978-1-61499-583-8-82
25. Bourgault-Côté S., Hasanzadeh K., Lavoie P., Laurendeau E. Multi-Layer Icing Methodologies for Conservative Ice Growth. In: 7th European Conference for Aeronautics and Aerospace Sciences (EUCASS). EUCASS association; 2017. p. 1-15. (In Eng.) DOI: https://doi.org/10.13009/EUCASS2017-258
Опубликована
2021-06-30
Как цитировать
BAGROV, Andrey Dmitrievich; RYBAKOV, Alexey Anatolyevich. Сглаживание границ между доменами поверхностной расчетной сетки. Современные информационные технологии и ИТ-образование, [S.l.], v. 17, n. 2, p. 265-274, june 2021. ISSN 2411-1473. Доступно на: <http://sitito.cs.msu.ru/index.php/SITITO/article/view/742>. Дата доступа: 21 nov. 2024 doi: https://doi.org/10.25559/SITITO.17.202102.265-274.
Раздел
Параллельное и распределенное программирование, грид-технологии