close

Вход

Забыли?

вход по аккаунту

?

Исследование и анализ задержки обработки трафика управления в программно-конфигурируемых сетях

код для вставкиСкачать
На правах рукописи
Галич Сергей Владимирович
ИССЛЕДОВАНИЕ И АНАЛИЗ ЗАДЕРЖКИ ОБРАБОТКИ ТРАФИКА
УПРАВЛЕНИЯ В ПРОГРАММНО-КОНФИГУРИРУЕМЫХ СЕТЯХ
Специальность 05.12.13 Системы, сети и устройства телекоммуникаций
Автореферат
диссертации на соискание ученой степени
кандидата технических наук
Волгоград – 2018
Работа выполнена в Федеральном государственном автономном
образовательном учреждении высшего образования «Волгоградский
государственный университет» (ФГАОУ ВО ВолГУ)
Научный руководитель:
кандидат технических наук, доцент
Семенов Евгений Сергеевич
ФГАОУ ВО «Волгоградский государственный
университет», заведующий кафедрой
телекоммуникационных систем
Официальные оппоненты:
Бахарева Надежда Федоровна, доктор
технических наук, профессор ФГБОУ ВО
«Поволжский государственный университет
телекоммуникаций и информатики», заведующая
кафедрой информатики и вычислительной техники
г. Самара
Сагатов Евгений Собирович, кандидат
технических наук, старший научный сотрудник
Научно-образовательного центра компьютерных
исследований, ФГАОУ ВО «Самарский
национальный исследовательский университет
имени академика С.П. Королева», доцент кафедры
суперкомпьютеров и общей информатики
г. Самара
Ведущая организация:
Федеральное государственное образовательное
учреждение высшего образования «Южный
федеральный университет», г. Ростов-на-Дону
Защита состоится 14 декабря 2018 г. в 15.00 часов на заседании
диссертационного совета Д 219.003.02 при Поволжском государственном
университете телекоммуникаций и информатики по адресу: 443010, г. Самара,
ул. Льва Толстого, д. 23.
С диссертацией можно ознакомиться в библиотеке и на сайте ФГБОУ ВО
«Поволжский
государственный
университет
телекоммуникаций
и
информатики» и на официальном сайте www.psuti.ru/.
Автореферат разослан «___» ______________________________ 2018 г.
Ученый секретарь
диссертационного совета Д 219.003.02,
доктор технических наук, профессор
А.И. Тяжев
2
Общая характеристика работы
Актуальность темы исследования. Все большее проникновение
информационных технологий в жизнь человеческого общества приводит к
проблеме постоянного роста передаваемого трафика в сети Интернет. Так, по
данным Министерства связи и массовых коммуникаций Российской
Федерации, в период с 2010 г. по 2016 г. объем услуги связи «Доступ к сети
Интернет» увеличился в пять раз и достиг цифры в 32470 Пбайт в год, что
показано на рисунке 1а. Кроме того, происходят изменения в поведении и
предпочтениях абонентов сетей. Согласно аналитической оценке Cisco VNI,
растёт доля трафика, генерируемого мобильными устройствами. К 2020 году
объем глобального трафика, ежемесячно генерируемого мобильными
устройствами, достигнет величины 30564 Пбайт на фоне 130758 Пбайт,
создаваемых устройствами с фиксированным проводным доступом, что
показано на рисунке 1б. Наблюдается и рост потребления так называемого
«тяжелого» контента, а именно видеотрафика.
Рисунок 1. а) Динамика увеличения объема переданного трафика в сети
Интернет (источник: Минкомсвязи РФ); б) Динамика роста ежемесячных
объемов трафика в глобальной сети (источник: Cisco VNI)
В результате сети требуют быстрых реакций на изменение их состояния.
Этому препятствует высокая сложность управления сетью ввиду наличия
большого числа производителей оборудования, каждый из которых
разрабатывает
собственную
аппаратную
платформу,
команды
конфигурирования, а также проприетарные протоколы взаимодействия
устройств. В результате этапы проектирования и пуско-наладочных работ т.н.
мультивендорских сетей занимают довольно существенные временные
промежутки. Упростить управление сетью могло бы наличие единого центра,
3
позволяющего осуществлять настройку политик безопасности, маршрутизации,
качества обслуживания, а также мониторинг параметров сетевых узлов. Идея
подобной концепции была предложена в 2006 году специалистами из
университетов Стенфорда и Беркли и получила название Software-Defined
Networks (SDN), а в русскоязычной среде устоялся термин программноконфигурируемые сети (ПКС). В рамках данной концепции роль центра
управления сетью выполняет контроллер программно-конфигурируемой сети
(ПКС-контроллер), представляющий собой стандартный сервер с x86совместимой архитектурой, снабженный сетевой операционной системой
(СОС) и осуществляющий управление сетевыми узлами с помощью
стандартизированных протоколов, наиболее распространенным из которых
является OpenFlow.
О преимуществах внедрения в эксплуатацию программно-конфигурируемых
сетей можно судить на основе опыта телеком-операторов. В 2017 году ПАО
«Ростелеком» было проведено тестирование возможностей мультивендорной
транспортной ПКС на базе оборудования Huawei, NEC и Nokia, cогласно
которому внедрение ПКС позволяет значительно сократить время заказа,
настройки и активации сервисов с нескольких недель или месяцев до
нескольких часов.
Степень разработанности темы. Исследовательской группой IMT-2020 в
рекомендации ITU-R M.2083-0 определены требования к разрабатываемой
технологии сетей 5G и отмечается необходимость создания гибкой сетевой
инфраструктуры на основе ПКС. Разработчиками документа говорится о
потребности понижения сетевой задержки «end-to-end» в пределах одного
сегмента сети до уровня 1 мс. Cогласно данным сайта Open Signal, средняя
задержка сетей 4G Германии колеблется от 37 мс до 49 мс, в то время как в
Индии – от 66 мс до 79 мс. Таким образом, достижение заданного уровня
сетевой задержки является весьма серьезной научно-технической задачей.
На сегодняшний день концепция программно-конфигурируемых сетей имеет
определенные недостатки, выявленные различными исследователями. В
частности, в работах Смелянского Р.Л., Шалимова А.В., Владыко А.Г., Киричка
Р.В., A Tootoonchian, R. Sherwood, S. Gorbunov, M. Casado, R. Sherwood, O.
Salman, I. H. Elhajj, Y. Zhao рассмотрены проблемы производительности ПКСконтроллеров и выявлено, что каждый ПКС-контроллер может осуществлять
управление ограниченным числом сетевых узлов, а существенное влияние на
производительность ПКС-контроллера как программно-аппаратного комплекса
оказывает язык программирования, на котором написана СОС.
4
При этом в указанных работах авторы были сфокусированы на таком
параметре
производительности
ПКС-контроллеров,
как
пропускная
способность (скорость обработки потоков): показаны зависимости этого
параметра производительности от числа коммутаторов в сети и количества
МАС-адресов в их памяти, числа ядер процессора. Однако касательно второго
ключевого параметра производительности – задержки ПКС-контроллера – были
осуществлены замеры только минимального, среднего и максимального
времени обработки OpenFlow-пакета. В работах Тарасова В.Н., Малахова С.В.
показано, что при отсутствии в коммутаторах правил обработки OpenFlowпакетов (реактивный режим работы) задержка в ПКС превосходит задержку в
традиционных сетях с коммутацией пакетов в 1,5 раз, а также что потери
пакетов растут с ростом задержки. S. El-Geder в своем исследовании на
примере контроллера под управлением СОС OpenDaylight показал, что при
отсутствии в коммутаторах правил обработки OpenFlow-пакетов круговая
задержка (RTT) и коэффициент потери пакетов (PLR) могут быть снижены в 3,3
и 3,1 раза соответственно для линейной топологии из 128 OpenFlowкоммутаторов путем использования кластера ПКС-контроллеров.
Таким образом, можно сделать вывод, что в настоящее время недостаточно
исследовано влияние аппаратной многоядерной платформы ПКС-контроллера
на задержку обработки OpenFlow-пакетов.
Объект исследования. Программно-конфигурируемые сети.
Предмет
исследования.
Задержка
обработки
OpenFlow-пакетов
контроллером программно-конфигурируемых сетей.
Цель и задачи исследования. Исследование задержки обработки OpenFlowпакетов ПКС-контроллером и выявление закономерностей изменения данной
задержки.
Для достижения поставленной цели требуется решение следующих задач:
1.Провести анализ стандартов в области сетевых архитектур ПКС, анализ
архитектуры и технических спецификаций сетевой операционной системы
ПКС-контроллера.
2. Проанализировать модель ускорения многоядерных процессоров на
основе закона Амдала, определить границы её применимости, выявить
факторы, способные ограничивать рост ускорения.
3. Разработать модель задержки обработки служебного трафика протокола
OpenFlow.
4. Осуществить экспериментальное исследование задержки обработки
OpenFlow-пакетов ПКС-контроллером.
5
5. Разработать способ применения модели ускорения многоядерных
процессоров для оценки уровня задержки обработки служебного трафика при
изменении размера сети.
Научная новизна.
1. Показана возможность использования закона Амдала для описания
ускорения ПКС-контроллера на многоядерных ЦП.
2. Разработана модель задержки обработки служебного трафика
программно-конфигурируемых сетей на базе протокола OpenFlow для
обеспечения их эффективного функционирования. Выявлена зависимость
задержки обработки служебного трафика от задержки ПКС-контроллера.
3. Разработан способ определения числа ядер платформы ПКС-контроллера,
при котором рационально увеличение управляемого сегмента сети.
4. Показано, что эффективность использования многоядерных процессоров
может быть увеличена путем применения технологии логической
многопоточности Hyper-Threading при достаточной сложности вычислительной
задачи.
Методы исследования. Для решения поставленных задач и достижения
поставленной цели использованы теория сетей связи, теория вычислительных
систем, методы математического и компьютерного моделирования
инфокоммуникационных сетей, а также программирования на языке высокого
уровня Python.
Основные положения, выносимые на защиту.
1. Модель оценки задержки обработки служебного трафика программноконфигурируемых сетей на базе протокола OpenFlow показала, что
количественное снижение данной задержки возможно за счет снижения
задержки, вносимой контроллером.
2. Показано, что возможно использовать закон Амдала для описания
теоретической верхней границы ожидаемого ускорения на многоядерных
платформах при фиксированном размере сегмента управляемой сети.
3. Показано, что увеличение числа коммутаторов в управляемом сегменте
рационально в том случае, когда доля последовательных операций,
совершаемых многоядерным ЦП ПКС-контроллера, перестает убывать.
4. Показано, что способом повышения эффективности использования
многоядерных процессоров в ПКС-контроллере при достаточной сложности
вычислительной задачи является применение технологии логической
многопоточности Hyper-Threading.
6
Соответствие
рассматриваемой
специальности.
Содержание
диссертационной работы соответствует следующим пунктам паспорта
специальности 05.12.13 – Системы, сети и устройства телекоммуникаций:
пункту 4 - Исследование путей совершенствования управления
информационными потоками.
пункту 14 - Разработка методов исследования, моделирования и
проектирования сетей, систем и устройств телекоммуникаций.
Личный вклад. Основные научные результаты теоретических и
экспериментальных исследований, выводы, изложенные в диссертационной
работе, получены автором самостоятельно. Автору работы принадлежит
разработка программного средства автоматизации тестирования контроллеров
программно-конфигурируемых сетей на базе протокола OpenFlow.
Теоретическая и практическая значимость работы. Теоретическая
значимость работы заключается в предложении использования закона Амдала
для описания ускорения ПКС-контроллера на многоядерных ЦП и в
предложенной модели задержки обработки служебного трафика программноконфигурируемых сетей на базе протокола OpenFlow. Практическая значимость
работы состоит в разработке способа определения числа ядер ЦП ПКСконтроллера, при котором рационально увеличение управляемого сегмента
сети, и в доказательстве использования технологии Hyper-Threading как
способа увеличения эффективности использования многоядерных ЦП.
Степень достоверности полученных результатов. При проведении
экспериментальных исследований автор четко следовал указаниям
рекомендаций по тестированию производительности ПКС-контроллеров.
Автором было разработано программное средство, зарегистрированное
Федеральной службой по интеллектуальной собственности. Достоверность
полученных результатов подтверждается соответствием теоретических и
экспериментальных исследований.
Апробация результатов. Основное содержание диссертационной работы
докладывалось и обсуждалось на XXII Международном форуме МАС 2018
«Экономика в условиях цифровой трансформации» (Международная академия
связи, г. Москва, 2018); Международной научно-технической конференции
"Пром-Инжиниринг 2017" (СПбПУ им. Петра Великого, г. Санкт-Петербург,
2017); XX Всероссийской научно-технической конференции «Современные
проблемы радиоэлектроники» (СФУ, г. Красноярск, 2017); VI,VII, IX
Всероссийских научно-практических конференциях «Проблемы передачи
информации в инфокоммуникационных системах» (ВолГУ, г. Волгоград, 2015,
2016, 2018), XXI научно-практической конференции молодых ученых,
7
аспирантов и студентов Национального исследовательского Мордовского
государственного университета им. Н.П. Огарёва (г. Саранск, 2017).
Исследования, проводимые автором по теме диссертационной работы, были
удостоены II места на молодежном конкурсе инноваций и инновационных
проектов – Новое поколение 2016/2017, организованного Международной
общественной академией связи, Общественным советом при Федеральном
агентстве связи, Профсоюзом работников связи России.
Публикации. Содержание и результаты диссертационной работы отражены
в 14 опубликованных работах. Публикации включают в себя 5 статей в научных
изданиях, рекомендованных ВАК, 1 статья, входящая в базы
WoS/Scopus/IEEEXplore, 6 трудов и тезисов докладов на Международных и
Всероссийских конференциях и форумах, 1 статья в журнале, индексируемом в
РИНЦ, 1 свидетельство о регистрации программы ЭВМ.
Структура и объём работы. Диссертационная работа изложена на 169
страницах текста и включает содержание, введение, четыре главы, заключение,
приложения, библиографический список из 150 наименований. В приложениях
к диссертации представлены код разработанной программы автоматизации
тестирования, свидетельство о регистрации программы для ЭВМ, процедура
установки и настройки сетевой операционной системы, экспериментальные
данные в табличном виде, акты о внедрении результатов исследования.
Основное содержание работы
Во введении приводится обоснование актуальности темы диссертационного
исследования, указаны объект и предмет исследования, определены цель и
задачи, представлены основные пункты научной новизны и положения,
выносимые на защиту. Показана практическая и теоретическая значимость
работы, апробация работы и описана структура работы.
В первой главе автором проведен анализ концепции программноконфигурируемых сетей. Рассмотрены рекомендации трех организаций – МСЭT Y.3300, IRTF RFC 7426, ONF TR-502 - описывающие архитектуру ПКС.
Анализ документов показал, что ключевой особенность архитектуры ПКС
является трехуровневая структура, подразумевающая физическое разделение
плоскостей пересылки данных, управления, приложений. Наличие плоскости
приложений в совокупности с северным и южным интерфейсами позволяет
сделать сеть программируемой и гибкой. Рассмотренные рекомендации не
описывают внутреннюю организацию сетевой операционной системы (СОС)
ПКС-контроллера. Автором приводится обоснование выбора СОС с открытым
исходным кодом OpenDaylight по причине его популярности и наличия
8
развитой онлайн-системы документации. Рассматривается архитектура версии
СОС OpenDaylight с открытым исходным кодом наряду с функционалом и
техническими спецификациями её коммерческих версий от таких вендоров, как
Brocade, Cisco, Ericsson, Extreme Networks, HPE, Huawei. На основании
проведенного анализа делается вывод о необходимости использования
многоядерных центральных процессоров (ЦП) в аппаратной платформе ПКСконтроллера.
Во второй главе осуществлен анализ многоядерных аппаратных платформ
ПКС-контроллеров. Исходя из позиционирования линеек ЦП компании Intel,
наиболее
подходящими
моделями
для
программно-определяемой
инфраструктуры являются многоядерные ЦП Xeon E5.
Каждое процессорное ядро имеет собственную кэш-память первого и
второго уровней. Остальные же ресурсы с точки зрения ядра являются общими
(разделяемыми), а значит, ядра конкурируют за доступ к ним. В рамках
процессорного кристалла к разделяемым ресурсам, например, относятся
контроллер оперативной памяти, кэш-память третьего уровня, соединительная
шина. Упрощенно логическую схему устройства многоядерного процессора
можно представить, как показано на рисунке 2.
Рисунок 2. Разделяемые ресурсы процессора
Наиболее популярной метрикой для оценки эффекта от параллелизации
является ускорение, определяемое как отношение времени решения
вычислительной задачи на одноядерном ЦП ко времени решения той же задачи
на многоядерном ЦП. Теоретический верхний предел ожидаемого ускорения
можно описать с помощью закона Амдала для многоядерных процессоров (в
записи Хилла и Марти), математическая запись которого выглядит следующим
образом:
9
S (m, r , lp ) 
T (1)

T ( m)
1
lp
pp  r

perf (r ) perf ( r )  k

perf (r )
pp
lp 
m
(1)
где T (1) , T (m) - время решения вычислительной задачи на одно- и многоядерном
ЦП соответственно, и k - общее число функциональных блоков ЦП, из
которых могут быть скомпонованы ядра; r - число блоков, составляющих
ядро ЦП; m  k / r - число ядер ЦП; perf (r )  r - условная производительность
одного ядра; lp, pp - доли последовательных и параллельных операций. При
использовании ядер одинаковой архитектуры и частоты perf (r )  1.
Доля последовательных операций может быть определена по формуле:
m
1
lp  S
.
m 1
(2)
Закон Амдала имеет вполне конкретную область применимости:
принимается допущение, что объем решаемой задачи фиксирован, а выигрыш
от дополнительных процессорных ядер заключается в снижении времени
вычисления. В законе Амдала не учитывается работа с памятью и издержки
коммуникации между ядрами, а также он применим для равночастотных ядер
одинаковой архитектуры.
Используя выражение (1),
можно
теоретически
рассчитать
прирост
ускорения в зависимости от
числа ядер процессора. Пусть
число
ядер
процессора
меняется от 4 до 18 ядер, что
соответствует
модельной
линейке Intel Xeon E5 v3, а
доля
последовательных
операций lp составляет 50%,
30%, 15%, 5% и 0%
(идеальное
линейное
ускорение).
Результаты
Рисунок 3. Рассчитанные значения ускорения
представлены на рисунке 3.
при различной доле линейных операций
Как
видно
из
представленного графика, доля линейных операций, является серьезным
сдерживающим фактором, ограничивающим рост ускорения при увеличении
10
числа ядер процессора. Так, при доли линейных операций 5% и увеличении
числа ядер с 1 до 18, невозможно получить ускорение более чем в 9,7 раз.
Автором была получена формула расчета ускорения для многоядерных
процессоров, снабженных технологией Hyper-Threading (HT), позволяющей
одному физическому ядру ЦП загружать собственные неиспользуемые
функциональные блоки, таким образом представляясь операционной системе в
виде нескольких логических процессоров:
T
perf (r )
S (m, r , lp ) HT  m 
 S ' HT  S (m, r , lp ) ,
(3)
TmHT lp  pp
m
Tm
'
S

где HT T
- ускорение, получаемое от активации HT,
mHT
TmHT и Tm - время
решения вычислительной задачи на многоядерном ЦП с активной и неактивной
функцией HT соответственно. Учитывая (3), под параллельной долей операций
pp понимается та часть программы, которую можно выполнить параллельно на
физических ядрах ЦП, не учитывая распараллеливание на логические
процессоры.
Помимо ускорения, для оценки качества параллелизма весьма полезной
метрикой является эффективность использования ядер процессора,
определяемая как отношение ускорения к числу ядер:
E ( m) 
S (m, r , lp)
.
m
(4)
Формула для расчета эффективности использования ядер процессора с
технологией HT имеет вид:
E (m) HT 
S (m, r , lp) HT
.
m
(5)
Ускорение и эффективность в некоторой степени противоречат друг другу,
поскольку с увеличением числа ядер ЦП можно получить прирост ускорения
при, как правило, снижении эффективности.
В третьей главе рассмотрены спецификации протокола OpenFlow,
обеспечивающего взаимодействие ПКС-контроллера с сетевыми узлами,
определены основные типы сообщений данного протокола, выделены основные
компоненты OpenFlow-коммутатора. В данной части представлена модель
задержки служебного трафика программно-конфигурируемых сетей,
полученная с учетом проекта рекомендации IETF draft «Address Resolution
Delay in SDN». Можно говорить о существовании двух типов задержек:
задержки определения адреса без установки потока для передачи пакета на
11
коммутаторе d NF и задержки определения адреса с установкой потока для
передачи пакета на коммутаторе d ; единицами измерения задержек являются
миллисекунды. Показано, что d NF превосходит d за счет задержки обработки
ARP-запроса, вносимой контроллером:
d NF  L  CNF  S NF ,
(6)
d  L  S ,
(7)
где L — задержка в каналах связи; CNF — задержка обработки на контроллере;
S NF — задержка обработки на коммутаторе без установленных правил, S —
задержка обработки на коммутаторе с установленными правилами. Очевидно,
что если рассматривать данные задержки для одного и того же сегмента, то:
d NF  d  CNF  ( S NF  S )
(8)
Следовательно, рост задержки определяется алгоритмом обмена OpenFlowпакетами служебного трафика между ПКС-контроллером и OpenFlowкоммутатором.
Рисунок 4. Диаграмма обмена пакетами служебного трафика
Для исследования служебного трафика в ПКС был создан
экспериментальный стенд с использованием среды Mininet и контроллера под
управлением СОС OpenDaylight Hydrogen со стандартным приложением для
12
коммутации «Simple Forwarding». Тестовый стенд запускался на ПК,
снабженном центральным процессором Core i5-520M 2,4 ГГц (4 ядра), ОЗУ
4Гб, Windows 7 32 bit. В среде Mininet была смоделирована топология single,
состоящая из одного коммутатора и двух хостов. Коммутатор для
взаимодействия с контроллером использовал протокол OpenFlow 1.0. С хоста
H1 с помощью команды ping генерировались ICMP-запросы до хоста H0. С
помощью сниффера пакетов Wireshark были проанализированы пакеты
служебного OpenFlow-трафика, которые возникали в ходе данной процедуры
определения адреса. По результатам анализа дампа трафика была построена
диаграмма сообщений, представленная на рисунке 4.Анализ данной диаграммы
позволяет определить алгоритм обмена служебными сообщениями, что
обуславливает наличие задержки d NF .
Для
исследования
зависимости
d NF
от
размера
сети
в
Mininet
моделировалась древовидная топология с числом коммутаторов, равным 3, 7,
15 и 31 (рисунок 5а). Выполнялась команда ping с узла H1 до H2, после чего с
использованием Wireshark выполнялась фильтрация трафика и высчитывалась
задержка d NF , задержка коммутатора S NF и задержка контроллера C NF ,
представленные в формуле (6). При этом задержка коммутатора S NF считалась
как среднее арифметическое по всем OpenFlow - коммутаторам. Результаты
представлены на рисунке 5б.
Рисунок 5: а) древовидная топология; б) зависимость задержек от количества
коммутаторов в сети
Исходя из характера кривых на графике, была выдвинута гипотеза о наличии
зависимости (корреляции) между исследуемыми параметрами. Для проверки
13
этого предположения был осуществлен расчет коэффициентов корреляции
попарно для экспериментальных массивов значений d NF и C NF , d NF и S NF
согласно следующему уравнению:
r
 xy  ( x)( y)
.
 n x  ( x )   n y  ( y ) 
2
Полученные
r (d NF , S NF )  0,951
с
2
помощью
указывают
2
(7)
на
значения
наличие
(7)
2
r (d NF , CNF )  0,935 ,
положительной
линейной
корреляции между исследуемыми параметрами, т.е. с ростом/уменьшением
значения одного из этих параметров будет расти/уменьшаться и другой. Таким
образом, показано, что снижение величины задержки, вносимой ПКСконтроллером, приведёт к снижению задержки обработки трафика управления.
В четвертой главе представлен способ применения модели ускорения
многоядерных процессоров для оценки уровня задержки обработки служебного
трафика при изменении размера сети. Был проведен эксперимент, основанный
на ONF TR-539 «OpenFlow Controller Benchmarking Methodologies» и IETF draft
«Benchmarking Methodology for SDN Controller Performance» с использованием
программного средства Cbench в режиме измерения задержки контроллера и
разработанной
автором
«Программы
автоматизации
тестирования
контроллеров программно-конфигурируемых сетей на базе протокола
OpenFlow», представляющей собой набор скриптов на языке Python. Блоксхема представлена на рисунке 6.
Скрипт setting.ini задаёт параметры тестирования: IPv4-адрес и порт ПКСконтроллера, количество имитируемых утилитой Cbench OpenFlowкоммутаторов (от 1 до 128 шт.), количество МАС-адресов в памяти
коммутатора ( 105 шт.), длительность теста (10 с), количество тестов (10 шт.), 10
количество серий тестов (10 шт.), паузу между тестами (30 с), а также число
активных ядер ЦП. Скрипт run_test.py осуществлял запуск утилиты Cbench с
заданными в setting.ini параметрами, calc.py – расчет средней задержки по
результатам теста(ов) и сохранение результаты в файл results.txt, откуда они
импортировались в табличный редактор MS Excel.
14
Рисунок 6. Блок-схема алгоритма работы программного средства
автоматизации тестирования ПКС-контроллера
В качестве СОС ПКС-контроллера выступал OpenDaylight, релиз BerylliumSR1, версия Java 8.0, объем памяти, выделяемый JVM, составлял 8 Гб,
15
аппаратные платформы снабжены ЦП Intel Xeon E3-1241 v3 3,5 ГГц (4 ядра, 8
логических процессоров), 16 Гб ОЗУ, и Intel Xeon E5-2670 v3 2,3 ГГц (12 ядер,
24 логических процессора), 128 Гбайт ОЗУ, под управлением ОС Ubuntu Server
14.04. Нагрузочная утилита Cbench запускалась на аппаратной платформе Intel
Core i5 4590 3,3 ГГц (4 ядра) в среде виртуальной машины Oracle Virtual Box
5.0.20, ОС Ubuntu 14.04. Оба сервера соединены каналом с пропускной
способностью 1 Гбит/с. Для фиксации тактовой частоты ЦП и соблюдения
условий выполнения закона Амдала технология динамического повышения
тактовой частоты ЦП Intel TurboBoost была отключена в BIOS. Схема стенда
представлена на рисунке 7.
Рисунок 7. Схема экспериментального стенда
В ходе первого эксперимента был осуществлен замер значений задержки на
платформах с ЦП Intel Xeon E3 и Xeon E5 при 16 управляемых коммутаторах.
Для ПКС-контроллера, снабженного ЦП Xeon E3, как показано на рисунке 8а,
минимальное значение задержки составило 62 мкс при 4 ядрах, в то время как
при использовании 12 ядер ЦП Xeon E5 – 23 мкс. Ускорение рассчитывалось по
формуле (1). При использовании ЦП Xeon E3 наилучшее значение ускорения в
1,43 раза достигается при 4 ядрах, а с ЦП Xeon E5 – 2,65 раз в конфигурации с 7
ядрами, 2,3 раза при 12 ядрах (рисунок 8б). Причиной прекращения роста
ускорения является увеличение накладных расходов из-за конкуренции ядер за
доступ к общим ресурсам. Таким образом, при фиксированном размере
сегмента управляемой сети, закон Амдала может использоваться как
16
теоретическая верхняя граница ожидаемого ускорения на многоядерных
платформах, поскольку экспериментальные значения ускорения не превосходят
предсказанные теоретически законом.
б)
а)
Рисунок 8: а) Сравнение задержек на платформах Xeon E3 и Xeon E5; б)
Сравнение ускорения на платформах Xeon E3 и Xeon E5
В следующем эксперименте использовалась платформа с ЦП Xeon E5, число
коммутаторов принимало значение 32 и 128 штук. Полученные
экспериментально значения задержки представлены на рисунке 9а. Ускорение,
доля последовательных операций, эффективность рассчитывались по формулам
(1)-(5). Увеличение числа OpenFlow-коммутаторов позволяет достичь больших
значений ускорения при увеличении числа процессорных ядер, доступных
ПКС-контроллеру. Достигнутое в максимальной конфигурации процессора
Xeon E5 ускорение составило 4,7 раз при 128 коммутаторах, активация HT в
этом случае позволяет достичь шестикратного ускорения (рисунок 9б).
Дальнейшему росту ускорения препятствуют последовательные не
распараллеливаемые операции, при 128 коммутаторах и 12 активных ядрах ЦП
доля которых составляет порядка 0,13 от общего числа совершаемых операций,
как видно из рисунка 9в. Начиная с 6 ядер доля линейных операций меняется
достаточно слабо, в диапазоне от 0,17 до 0,13 при 128 коммутаторах и от 0,2 до
0,14 при 32 коммутаторах. На графике это выглядит как колебания «хвоста»
функции в небольших пределах. В этом случае большего значения ускорения
при фиксированном числе ядер можно достичь за счет увеличения
вычислительной сложности решаемой задачи, т.е. увеличения числа
коммутаторов в управляемом ПКС-контроллером сегменте сети.
17
а)
б)
г)
в)
Рисунок 9. Задержка, ускорение, доля последовательных операций и
эффективность на ПКС-контроллере с ЦП Xeon E5
Как показывает рисунок 9г, с увеличением числа физических ядер
процессора наблюдается снижение эффективности. Hyper-Threading позволяет
увеличить эффективность использования многоядерных процессоров при
постоянном числе физических ядер процессора. При размере сети в 128
коммутаторов и 12 ядрах ЦП эффективность составляет 0,395, активация HT
позволяет повысить это значение до 0,501, таким образом, наблюдаемый
прирост эффективности составляет 1,26 раз. Среднее значение эффективности
при 128 коммутаторах, учитывая все возможные конфигурации ядер ЦП с
Hyper-Threading, составляет 0,76, а в конфигурации без HT – 0,59, и таким
образом среднее значение прироста эффективности от активации HT составляет
1,28 раз. Если же ПКС-контроллер управляет сетью из 32 коммутаторов, то при
12 ядрах ЦП активация HT не дает прироста эффективности. Однако среднее
значение эффективности при всех возможных конфигурациях физических ядер
18
ЦП ПКС-контроллера и 32 коммутаторах составляет 0,51, активация HyperThreading повышает это значение до 0,62, средний прирост эффективности
составляет 1,22 раза. Таким образом, эффективность использования
многоядерных процессоров может быть увеличена путем использования
технологии логической многопоточности Hyper-Threading при достаточном
размере сегмента сети (сложности вычислительной задачи).
В заключении сформулированы основные научные и практические
результаты работы:
1. Показана возможность использования закона Амдала для описания
ускорения ПКС-контроллера на многоядерных ЦП.
2. Разработана модель задержки обработки служебного трафика
программно-конфигурируемых сетей на базе протокола OpenFlow для
обеспечения их эффективного функционирования. Выявлена зависимость
задержки обработки служебного трафика от задержки ПКС-контроллера.
3. Разработан способ определения числа ядер платформы ПКС-контроллера,
при котором рационально увеличение управляемого сегмента сети.
4. Показано, что эффективность использования многоядерных процессоров
может быть увеличена путем применения технологии логической
многопоточности Hyper-Threading при достаточной сложности вычислительной
задачи.
Перспективное направление дальнейших исследований может быть
связано с разработкой техник оптимизации СОС с использованием нового
класса технологий ЦП platform quality of service или адаптация СОС для
GPGPU-платформы на основе графических процессоров.
Список работ, опубликованных автором по теме диссертации
Публикации в научных рецензируемых журналах, рекомендуемых ВАК
1. Карташевский В.Г Оценка масштабируемости задержки ПКС-контроллера
на параллельной вычислительной системе / В. Г. Карташевский, С. В. Галич, Е.
С. Семёнов, Н.И. Кирьянова // Инфокоммуникационные технологии. – 2017. –
№2. – С. 163-170.
2. Галич С. В. Исследование производительности ПКС-контроллера
OpenDaylight на сетях разных масштабов / С. В. Галич, М. С. Деогенов, В. Г.
Карташевский, А. О. Пасюк, Е. С. Семёнов // Известия ЮФУ. Технические
науки. – 2016. – №9. – С. 121-133.
3. Семёнов Е. С. Исследование функционирования ARP-протокола в
программно-конфигурируемой сети / Е. С. Семёнов, М. С. Деогенов, С. В.
Галич, Д. А. Тюхтяев, Д. И. Чадаев, А. В. Харченко // Вестник Ростовского
государственного университета путей сообщения. – 2016. –№3. – С.55-61.
19
4. Семенов Е. С., Деогенов М. С., Галич С. В., Тюхтяев Д. А., Пасюк А. О.
Оптимизация IP сети с использованием программно-конфигурируемых сетей /
Е. С. Семёнов, М. С. Деогенов, С. В. Галич, Д. А. Тюхтяев, А. О. Пасюк //
Инфокоммуникационные технологии. – 2015. – Том 13. №4. – С. 414-419.
5. Семенов Е. С. Анализ и классификация задержек, возникающих при
работе протокола ARP в программно-конфигурируемых сетях / Е. С. Семёнов,
С. В. Галич, Д. А. Тюхтяев // Вестник государственного университета морского
и речного флота им. адмирала С.О. Макарова. – 2015. – №5 (33). – С.217-228.
Публикации в других изданиях
6. Галич С. В. Применение методов машинного обучения для
автоматического определения потоков в программно-конфигурируемых сетях //
Сборник докладов и тезисов IX Всероссийской научно-практической
конференции «Проблемы передачи информации в инфокоммуникационных
системах», г. Волгоград, 25 мая 2018 г. – С. 46-52.
7. Галич С. В. Оценка задержки SDN-контроллера на многоядерных
процессорах // Сборник докладов XXII форума Международной общественной
академии связи «Экономика в условиях цифровой трансформации». – М. :
МФЮА, 2018. – С. 220-225.
8. Galich S. V., Deogenov M.S., Semenov E. S. Control traffic parameters
analysis in various software-defined networking topologies // 2017 International
Conference on Industrial Engineering, Applications and Manufacturing (ICIEAM),
16-19 May, St. Petersburg, Russia, DOI: 10.1109/ICIEAM.2017.8076439
9. Осетров С. П. Механизм отказоустойчивости в кластере master-slave
контроллеров OpenDaylight / С. П. Осетров, С. В. Галич // Материалы XXI
научно-практической конференции молодых ученых, аспирантов и студентов
Национального
исследовательского
Мордовского
государственного
университета им. Н.П. Огарёва, г. Саранск, 22-29 мая 2017 г. – С. 516-523.
10. Осетров С. П. Анализ режимов кластеризации ПКС-контроллера
OpenDaylight / С. П. Осетров, С. В. Галич // Современные проблемы
радиоэлектроники: сб. науч. тр. – Красноярск: Сибирский Федеральный
Университет, 2017. – С. 636–639.
11. Галич С. В. Аналитический обзор коммерческих ПКС-контроллеров на
основе OpenDaylight [Электронный ресурс] / С. В. Галич, М. С. Деогенов, А. О.
Пасюк, Е. С. Семёнов // Огарев-online. – 2016. – №18. – URL:
http://journal.mrsu.ru/arts/analiticheskij-obzor-kommercheskix-pks-kontrollerov-naosnove-opendaylight
20
12. Галич С. В. Теоретическая оценка максимально достижимого
масштабирования производительности ПКС-контроллера на многоядерной
аппаратной платформе / С. В. Галич, Р. А. Юртаев // Сборник докладов и
тезисов VII Всероссийской научно-практической конференции «Проблемы
передачи информации в инфокоммуникационных системах», г. Волгоград, 20
мая 2016 г. – С. 26-35.
13. Галич С. В. Обзор архитектуры SDN-контроллера OpenDaylight / С. В.
Галич, И. К. Сердюкова, О. Е. Сафонова // Проблемы передачи информации в
инфокоммуникационных системах: сборник докладов и тезисов VI
Всероссийской научно-практической конференции, 18 мая 2015 г. – Волгоград:
изд-во ВолГУ, 2015. – С. 18-25.
Свидетельство о государственной регистрации программы ЭВМ
14. Свидетельство о государственной регистрации программы для ЭВМ №
2017663192
«Программа
автоматизации
тестирования
контроллеров
программно-конфигурируемых сетей на базе протокола OpenFlow» / С. В.
Галич ; правообладатель С. В. Галич ; заявл. 26.07.2017 ; зарегистр. 27.11.2017.
- 1 с.
Подписано в печать 11.10.2018.Формат 60×84/16.
Гарнитура Times New Roman. Усл. печ. л. ___. Тираж 100 экз. Заказ № ____.
21
Документ
Категория
Без категории
Просмотров
28
Размер файла
1 309 Кб
Теги
анализа, сетях, программа, трафик, задержка, управления, конфигурируемых, исследование, обработка
1/--страниц
Пожаловаться на содержимое документа