close

Вход

Забыли?

вход по аккаунту

?

12 декабря 2006 г. - Проект EGEE

код для вставкиСкачать
.
GRID
для ФИЗИКИ ВЫСОКИХ
ЭНЕРГИЙ
Ю.Ф.Рябов
Петербургский институт ядерной физики
им.Б.П.Константинова РАН
(ПИЯФ РАН)
Содержание
• Oб экспериментах физики высоких энергий
• О ЦЕРНе(CERN) и ускорителе БАК(LHC)
• Эксперименты на БАК и объемы данных в них
• Модель обработки экспериментальных данных с
БАК
• Проект БАК ГРИД (LCG)
• Проект построения всемирной научной ГРИДинфраструктуры (проект EGEE/LCG)
• Российский ГРИД для интенсивных вычислений
(RDIG)
• Академический ГРИД в Санкт-Петербурге
12 декабря 2006 г.
Об экспериментах в ФВЭ
•
•
•
•
•
•
•
•
Индустриальный подход к созданию установок
Уникальность экспериментальной базы
Масштабность экспериментов
Дороговизна создания установок и проведения
экспериментов
Международный характер исследований
Длительность работы экспериментальных
установок
Огромный объем экспериментальных данных
Фундаментальность научных целей
12 декабря 2006 г.
Научные цели экспериментов на Большом
Андронном Коллайдере (БАК)
Космологические цели
• Что такое масса?
• Что такое “темная материя”?
• Куда исчезла антиматерия?
Какие открытия ожидают от экспериментов?
• Суперпартнеры (открытие суперсимметрии) - вероятность 50%
(S.Hawking)
• Черные дыры (mini) - вероятность 5% (S.Hawking)
• Higgs Boson (новая частица в рамках “стандартной модели”)
12 декабря 2006 г.
О ЦЕРНе ( CERN)
• Крупнейший в мире исследовательский центр по ФВЭ
• Работают представители ~500 университетов и
институтов (штат~2500чел.,6500 визитеров из ~40
стран)
• Сделано много открытий и разработано много новых
технологии, включая WWW.
• Расположен на границе Щвейцарии-Франции
12 декабря 2006 г.
CERN Collaborators
CERN has over 6,000 users from ~500
institutes from around the world
Europe:
267 institutes
4603 users
Elsewhere:
208 institutes
1632 users
LHC Computing uniting the computing
resources of particle physicists in the
world!
12 декабря 2006 г.
Большой адронный коллайдер (БАК)
12 декабря 2006 г.
The ATLAS Experiment
A ToroidaL ApparatuS for LHC
View of LHC @ CERN
ATLAS
12 декабря 2006 г.
Детектор ATLAS
Диаметр
25 м
Длина
46 м
Вес
7000 тонн
Участники создания: 150 институтов и
университетов из 34 стран
12 декабря 2006 г.
online system
multi-level trigger
filter out background
reduce data volume
12 декабря 2006 г.
Данные БАК
•
40 000 000 столкновений в секунду
•
После фильтрации, остаётся только
100 событий в секунду
•
Объём оцифрованных данных для
одного события ~ 1Мб
•
За год необходимо записать 1010
событий = 10 Петабайт данных в год
CMS
LHCb
1 Мегабайт (1MB)
Цифровая фотография
1 Гигабайт (1GB) = 1000MB
DVD фильм
1 Терабайт (1TB) = 1000GB
Объём всех книг, изданных
за год в мире
1 Петабайт (1PB) = 1000TB
Производит за год один
эксперимент БАК
1 Экзобайт (1EB) = 1000 PB
Объём информации,
которую производит за год
всё человечество
ATLAS
ALICE
12 декабря 2006 г.
Необходимость ГРИД для БАК
• Объём получаемых данных LHC соответствует 20
миллионам записанных CD дисков в год. Где их
хранить?
• Анализ данных LHC потребует вычислительных
мощностей, эквивалентных мощности 100000
самых современных процессоров. Где их взять?
• Ресурсы ЦЕРН уже сейчас составляют более 1000
2-х процессорных ПК и 1 Пб памяти на дисках и на
лентах. Но этого мало!!!
Воздушный
шар
(30 Км)
Стопка CD
дисков с
данными БАК
за 1 год (~ 20
Км)
Конкорд
(15 Км)
Выход – объединение вычислительных
ресурсов физиков всего мира
Монблан
(4.8 Км)
12 декабря 2006 г.
Специфика работы с данными в ФВЭ
• Независимость событий,что позволяет легко обрабатывать
данные параллельно (без MPI между программами обработки
событий);
• Результаты необходимо объединять только на финальной
стадии обработки
Идеально подходят для обработки слабо связанные
параллельные вычислительные структуры.
12 декабря 2006 г.
Event Processing Data Flow
Detector Output.
Detector
Reconstruction
Event Summary Data
(ESD)
Combined
Reconstruction
Analysis Object Data
(AOD)
~3 MBytes
Simulation Output
- Tracks, Segments
- …..
- ….
Analysis Objects:
- Electron, Photon,
- Muon,….,
- ….
Size/event
Raw Data Objects
(RDO)
500 Kbytes
(target for
stable data
taking)
100 KBytes
User Analysis
12 декабря 2006 г.
Обработка и анализ данных
event filter
(selection,..)
detector
processed
data
event
summary
data
raw
data
event
processing
batch
physics
analysis
analysis objects
(extracted by physics topic)
event
simulation
interactive
physics
analysis
12 декабря 2006 г.
Модель обработки данных
Online system
Tier 2
Tier 3
recorded data
Церн вычисл.центр
Tier 0
Tier 1
Offline farm
Regional Center
Regional Center
Regional Center
Tier2 CenterTier2 Center Tier2 Center
InstituteA
InstituteB
..
...
workstation
12 декабря 2006 г.
desktops
portables
Tier-2
small
centres
Tier-1
MSU
RAL
IC
IN2P3
IFCA
UB
Cambridge
LHC Computing Model (simplified!!)
Budapest
• Tier-0 – the accelerator centre Prague
Filter raw data
Reconstruction summary data
(ESD)
Record raw data and ESD
Distribute raw and ESD to Tier-1
•
Tier-1 –
Permanent storage and
management of raw, ESD,
calibration data and databases
grid-enabled data service
Data-heavy analysis
Re-processing raw ESD
managed mass storage
FNAL
CNAF
FZK
Taipei
PIC
TRIUMF
BNL
Legnaro
ICEPP
CSCS
Rome
Tier-2 –
CIEMAT
Krakow NIKHEF
USC
Well-managed disk
storage –gridenabled Simulation
End-user analysis –
batch and interactive
High performance
parallel
) г.
12analysis
декабря 2006
LHC Computing Grid Project (LCG)
• Основной задачей проекта LCG является создание глобальной
инфраструктуры региональных центров для обработки,
хранения и анализа данных физических экспериментов LHC.
• Новейшие технологии GRID являются основой построения
этой инфраструктуры.
Проект LCG осуществляется в две фазы.
• 1 фаза (2002-2005 гг.) - создание прототипа и разработка
проекта системы (LCG TDR).
• 2 фаза (2005-2007 гг.) - создание инфраструктуры LCG,
готовой к обработке, хранению и анализу данных на момент
начала работы ускорителя в 2007 году.
12 декабря 2006 г.
Топология сети для обработки
данных с БАК
12 декабря 2006 г.
Основные цели проекта EGEE
(Enable Grid for E-sciencE)
-Основная цель проекта EGEE - объединить национальные,
региональные и тематические Grid-разработки в единую
цельную Grid-инфраструктуру для поддержки научных
исследований (в первую очередь ФВЭ и Биоинформатика)
-Предоставить исследователям круглосуточный доступ к
вычислительным ресурсам независимо от их географического
положения. Пользоваться инфраструктурой смогут
сообщества исследователей, которые готовы объединить
свои собственные вычислительные мощности и согласны с
принципами общего доступа.
-Проект поддерживают финансирующие учреждения ЕС, но
предназначен он для работы во всем мире. Значительные
средства поступают от США, России и других участников
проекта, не входящих в ЕС.
12 декабря 2006 г.
Активности в EGEE
NA2 –распространение информации
WEB сайты, e-почта, презентации, визиты, конференции, публикации,...
NA3 – Обучение
Подготовка обучающих материалов. Проведение курсов
NA4 – применение и поддержка Grig-структуры в приложениях
Поддержка ФВЭ и Биологии в пилотном использовании. Привлечение
пользователей. Определение общих интерфейсов и инструментария..
SA1 – Поддержка функционирования Grid инфраструктуры
Мониторинг и управление Grid структурой. Распространение Grid ПО и
включение новых выч. ресурсов. Поддержка пользователей.
SA2 – Обеспечение сетевыми ресурсами
12 декабря 2006 г.
EGEE-II: Expertise & Resources
• More than 90 partners
• 32 countries
• 12 federations
Major and national
Grid projects in
Europe, USA, Asia
+ 27 countries
through related projects:
BalticGrid
SEE-GRID
EUMedGrid
EUChinaGrid
EELA
12 декабря 2006 г.
Проект EGEE (Enable Grid for E-sciencE)
Страны - поставщики ресурсов
Страны, готовые вступить
EGEE/LCG-2 грид:
160 центров, 36 стран
>15,000 процессоров,
~5 PB памяти
Другие национальные и
региональные гриды:
~60 центров, ~6,000 процессоров
с тр а н а
ц е н тр ы
с тр а н а
ц е н тр ы
с тр а н а
ц е н тр ы
1
2
25
1
1
2
1
2
4
Россия
С и н га п ур
С л о в а ки я
С ловения
И спания
Ш веция
Ш вейцария
Тайвань
Т ур ц и я
В е л и ко б р и та н и я и
И рландия
СШ А
Ю го с л а в ия
10
1
3
1
13
2
2
4
1
А в с тр и я
Б е л ь ги я
Б о л га р и я
Канада
К и та й
Х о р в а ти я
Кипр
Ч е хи я
Ф ранция
2
1
4
6
1
1
1
2
8
И ндия
И зр а и л ь
И та л и я
Я пония
Корея
Н идерланды
М а ке д о н и я
П а ки с та н
П ольш а
Германия
8
П о р туга л и я
1
Греция
В е н гр и я
6
1
П уэ р то Р и ко
Р ум ы н и я
1
1
35
3
1
12 декабря 2006 г.
Распределение CPU time в EGEE/LCG по VO
12 декабря 2006 г.
Управление ГРИД EGEE/LCG
Операционный центр управления
(OMС)
- ЦЕРН - общая координация
Центры базовой инфраструктуры
(CIC) - 5 центров (Великобритания,
Франция, ЦЕРН, Италия, Россия)
- обеспечение постоянной (24x7)
работы базовых грид-служб,
мониторинг системы;
- реализация и контроль за
выполнением правил,
выработанных OMS
- обеспечение поддержки узлов
2-го уровня
Региональные операционные
центры (ROC) ~ 11 центров
- поддержка пользователей и
администраторов ресурсов
- координация региональных
ресурсов
12 декабря 2006 г.
Ресурсные центры
RC
RC
RC
ROC
RC
RC
RC
RC
RC
ROC
RC
CIC
CIC
CIC
CIC
RC
RC
OMC
CIC
RC
CIC
RC
ROC
RC
RC
RC
RC
RC
ROC
RC
RC
RC = Resource Centre
12 декабря 2006 г.
Уровни программных средств EGEE/LCG
- Прикладное программное обеспечение
для ВО АTLAS, CMS, ALICE, LHC-b и др. ВО
- Программное обеспечение промежуточного уровня
(middleware - LCG-2, gLite)
- Базовое программное обеспечение
Scientific Linux
12 декабря 2006 г.
Состав программных подсистем EGEE/LCG
(промежуточный уровень)
• Управление заданиями:
- выделение ресурсов, исходя из требований пользователей;
- расписание выполнения задания;
- трэк статуса задания,….
• Управление данными:
- чтение/запись файлов, репликация на SE, ведение каталогов,
GridFTP,….
• Информационная система:
- Грид ресурсы и их статус, динамика использования,…
12 декабря 2006 г.
Состав программных подсистем
EGEE/LCG(промежуточный уровень)
• Мониторинг:
тестирование состояния ресурсов;
визуализация и хранение статуса ресурсов
• Учет (accounting):
логи по использованию ресурсов;
трассы прохождения заданий пользователей,..
12 декабря 2006 г.
Мониторинг узлов EGEE/LCG
12 декабря 2006 г.
Участие России в проекте EGEE
• В целях обеспечения полномасштабного участия России в этом
проекте был образован консорциум РДИГ (Российский ГРИД
для интенсивных операций с данными – Russian Data Intensive
GRID, RDIG) для эффективного выполнения работ по проекту и
развитию в России инфраструктуры EGEE, с вовлечением на
следующих этапах проекта других организаций из различных
областей науки, образования и промышленности.
• Консорциум
РДИГ, согласно принятой в проекте EGEE
структуре, входит в проект в качестве региональной
федерации “Россия” (“Russia).
• Главной задачей РДИГ является участие в обработке
данных с Большого Андронного Коллайдера(БАК)
12 декабря 2006 г.
Russian Data Intensive GRID (RDIG)
Consortium - EGEE Federation
• ИФВЭ (Институт физики высоких энергий, Протвино)
• ИМПБ РАН (Институт математических проблем биологии,
•
•
•
•
•
•
•
•
Пущино)
ИТЭФ (Институт теоретической и экспериментальной физики)
ОИЯИ (Объединенный институт ядерных исследований, Дубна)
ИПМ РАН (Институт прикладной математики)
ПИЯФ РАН (Петербургский институт ядерной физики, Гатчина)
РНЦ КИ (Российский научный центр «Курчатовский институт»)
НИИЯФ МГУ (Научно-исследовательский институт ядерной
физики МГУ)
СПбГУ (Санкт-Петербургский государственный университет)
НГУ (Новгородский государственный университет)
12 декабря 2006 г.
Российский региональный центр:
the DataGrid cloud
LCG Tier1/Tier2
cloud
FZK
CERN
GRID access
JINR
…
IHEP
ITEP
Gbits/s
RRC-LHC
Regional connectivity:
Tier2
cluster
SPbSU
RRC KI
SINP MSU
PNPI
cloud backbone – Gbit’s/s
to labs – 100–1000 Mbit/s
Collaborative centers
12 декабря 2006 г.
Распределение CPU time по регионам
12 декабря 2006 г.
Активность RDIG в EGEE/LCG за 2006г.
12 декабря 2006 г.
Активность RDIG в EGEE/LCG за 2006г.
12 декабря 2006 г.
Направление работ по проекту
EGEE/LCG в ПИЯФ РАН
• Обеспечение работы кластера в Грид-структуре EGEE/LCG
(в настоящее время 60 процессоров, в конце декабря 2006110пр.)
• Тестирование g-Lite (stress- tests)
• Поддержка прикладного ПО всех (4-х) БАК экспериментов
• Обеспечение работы в ВО nw_ru для обучения (работа в Грид)
и счета вне коллабораций
12 декабря 2006 г.
Карта сети РОКСОН
12 декабря 2006 г.
Транспортная среда для организации
распределённых вычислений
ФТИ
СПИИРАН
VPN
Узел “Академический”
WDM
SPB-IX
Узел “Центральный 1” (АО Ленэнерго)
Внешние каналы
Узел “Центральный 2” (Боровая, д 57)
ПИЯФ РАН
12 декабря 2006 г.
Спасибо за внимание
12 декабря 2006 г.
Документ
Категория
Презентации
Просмотров
5
Размер файла
3 970 Кб
Теги
1/--страниц
Пожаловаться на содержимое документа