Для повышения эффективности использования суперЭВМ и для ускорения проведения расчетов по моделированию турбулентной плазмы в трехмерной постановке существует необходимость динамической, непосредственно в процессе счета, адаптации вычислительного алгоритма к архитектуре суперЭВМ. Проведено большое количество физических расчетов с использованием программы в трехмерной расчетной области, использующей двухступенчатую эйлерово-лагранжеву декомпозицию расчетной области. Для адаптации программы к реально выделенным для ее работы вычислительным узлам в данной работе предложены два подхода. Во-первых, на основании тестовых расчетов на небольшом количестве процессорных ядер измерить время коллективных и парных
коммуникаций MPI, построить аппроксимацию времени пересылок для произвольного количества процессов и выбрать оптимальное сочетание эйлеровой и лагранжевой декомпозиции. Во-вторых, необходимо провести анализ коммуникационной структуры выделенных для счета узлов суперЭВМ и перенумеровать процессы с учетом их расположения на узлах.
In order to increase the efficiency of supercomputer engagement and to accelerate 3D turbulent plasma simulation it is necessary to provide an on-the-fly adaptation of the algorithm to the computer architecture. A number of 3D computational experiments were conducted using the two-stage Euler-Lagrangian decomposition. In order to adopt the program to computational nodes provided for the computation two new approaches were proposed. First, measure the time of collective and peer-to-peer MPI operations in a small number of test runs and then make and estimation of the operation time dependency on the number of processors and finally figure out the optimal combination of Eulerian and Lagrangian decomposition. Second, analyze the computational nodes provided for the program execution and reorder the MPI processes considering their position within the nodes.