![]() |
|
сделать стартовой | добавить в избранное |
![]() |
Параллелизм как способ параллельной обработки данных |
Реферат на тему: «Параллелизм как способ параллельной обработки данных» Котовск 2010 Введение Стремительное развитие науки и проникновение человеческой мысли во все новые области вместе с решением поставленных прежде проблем постоянно порождает поток вопросов и ставит новые, как правило, более сложные, задачи. Во времена первых компьютеров казалось, что увеличение их быстродействия в 100 раз позволит решить большинство проблем, однако гигафлопная производительность современных суперЭВМ сегодня является явно недостаточной для многих ученых. Электро и гидродинамика, сейсморазведка и прогноз погоды, моделирование химических соединений, исследование виртуальной реальности – вот далеко не полный список областей науки, исследователи которых используют каждую возможность ускорить выполнение своих программ. Наиболее перспективным и динамичным направлением увеличения скорости решения прикладных задач является широкое внедрение идей параллелизма в работу вычислительных систем. К настоящему времени спроектированы и опробованы сотни различных компьютеров, использующих в своей архитектуре тот или иной вид параллельной обработки данных. В научной литературе и технической документации можно найти более десятка различных названий, характеризующих лишь общие принципы функционирования параллельных машин: векторно-конвейерные, массивно-параллельные, компьютеры с широким командным словом, систолические массивы, гиперкубы, спецпроцессоры и мультипроцессоры, иерархические и кластерные компьютеры, da aflow, матричные ЭВМ и многие другие. Если же к подобным названиям для полноты описания добавить еще и данные о таких важных параметрах, как, например, организация памяти, топология связи между процессорами, синхронность работы отдельных устройств или способ исполнения арифметических операций, то число различных архитектур станет и вовсе необозримым. Попытки систематизировать все множество архитектур начались после опубликования М. Флинном первого варианта классификации вычислительных систем в конце 60-х годов и непрерывно продолжаются по сей день. Классификация очень важна для лучшего понимания исследуемой предметной области, однако нахождение удачной классификации может иметь целый ряд существенных следствий. Основной вопрос классификации – что заложить в её основу, может решаться по-разному, в зависимости от того, для кого данная классификация создается и на решение какой задачи направлена. Так, часто используемое деление компьютеров на персональные ЭВМ, рабочие станции, мини–ЭВМ, большие универсальные ЭВМ, минисупер-ЭВМ и супер-ЭВМ, позволяет, быть может, примерно прикинуть стоимость компьютера. Однако она не приближает пользователя к пониманию того, что от него потребуется для написания программы, работающий на пределе производительности параллельного компьютера, т.е. того, ради чего он и решился его использовать. Классификация должна помогать разобраться с тем, что представляет собой каждая архитектура, как они взаимосвязаны между собой, что необходимо учитывать для написания действительно эффективных программ или же на какой класс архитектур следует ориентироваться для решения требуемого класса задач.
Одновременно удачная классификация могла бы подсказать возможные пути совершенствования компьютеров и в этом смысле она должна быть достаточно содержательной. Трудно рассчитывать на нахождение нетривиальных «белых пятен», например, в классификации по стоимости, однако размышления о возможной систематике с точки зрения простоты и технологичности программирования могут оказаться чрезвычайно полезными для определения направлений поиска новых архитектур. Параллельные вычислительные системы Параллельные вычислительные системы – это физические компьютерные, а также программные системы, реализующие тем или иным способом параллельную обработку данных на многих вычислительных узлах. Идея распараллеливания вычислений основана на том, что большинство задач может быть разделено на набор меньших задач, которые могут быть решены одновременно. Обычно параллельные вычисления требуют координации действий. Параллельные вычисления существуют в нескольких формах: параллелизм на уровне битов, параллелизм на уровне инструкций, параллелизм данных, параллелизм задач. Параллельные вычисления использовались много лет в основном в высокопроизводительных вычислениях, но в последнее время к ним возрос интерес вследствие существования физических ограничений на рост тактовой частоты процессоров. Параллельные вычисления стали доминирующей парадигмой в архитектуре компьютеров, в основном в форме многоядерных процессоров. Писать программы для параллельных систем сложнее, чем для последовательных, так как конкуренция за ресурсы представляет новый класс потенциальных ошибок в программном обеспечении (багов), среди которых состояние гонки является самой распространённой. Взаимодействие и синхронизация между процессами представляют большой барьер для получения высокой производительности параллельных систем. В последние годы также стали рассматривать вопрос о потреблении электроэнергии параллельными компьютерами. Характер увеличения скорости программы в результате распараллеливания объясняется законом Амдала. Если при вычислении не применяются циклические (повторяющиеся) действия, то вычислительных модулей никогда не выполнят работу в раз быстрее, чем один единственный вычислительный модуль. Например, для быстрой сортировки массива на двухпроцессорной машине можно разделить массив пополам и сортировать каждую половину на отдельном процессоре. Сортировка каждой половины может занять разное время, поэтому необходима синхронизация. Типы параллелизма Параллелизм на уровне битов Эта форма параллелизма основана на увеличении размера машинного слова. Увеличение размера машинного слова уменьшает количество операций, необходимых процессору для выполнения действий над переменными, чей размер превышает размер машинного слова. К примеру: на 8-битном процессоре нужно сложить два 16-битных целых числа. Для этого вначале нужно сложить нижние 8 бит чисел, затем сложить верхние 8 бит и к результату их сложения прибавить значение флага переноса. Итого 3 инструкции. С 16-битным процессором можно выполнить эту операцию одной инструкцией. Исторически 4-битные микропроцессоры были заменены 8-битными, затем появились 16-битные и 32-битные.
32-битные процессоры долгое время были стандартом в повседневных вычислениях. С появлением технологии x86–64 для этих целей стали использовать 64-битные процессоры. Параллелизм на уровне инструкций Компьютерная программа – это, по существу, поток инструкций, выполняемых процессором. Но можно изменить порядок этих инструкций, распределить их по группам, которые будут выполняться параллельно, без изменения результата работы всей программы. Данный приём известен как параллелизм на уровне инструкций. Продвижения в развитии параллелизма на уровне инструкций в архитектуре компьютеров происходили с середины 1980-х до середины 1990-х. Современные процессоры имеют многоступенчатый конвейер команд. Каждой ступени конвейера соответствует определённое действие, выполняемое процессором в этой инструкции на этом этапе. Процессор с ступенями конвейера может иметь одновременно до различных инструкций на разном уровне законченности. Классический пример процессора с конвейером – это RISC-процессор с 5-ю ступенями: выборка инструкции из памяти (IF), декодирование инструкции (ID), выполнение инструкции (EX), доступ к памяти (MEM), запись результата в регистры (WB). Процессор Pe ium 4 имеет 35-тиступенчатый конвейер. Некоторые процессоры, дополнительно к использованию конвейеров, обладают возможностью выполнять несколько инструкций одновременно, что даёт дополнительный параллелизм на уровне инструкций. Возможна реализация данного метода при помощи суперскалярности, когда инструкции могут быть сгруппированы вместе для параллельного выполнения (если в них нет зависимости между данными). Также возможны реализации с использованием явного параллелизма на уровне инструкций: VLIW и EPIC. Параллелизм данных Основная идея подхода, основанного на параллелизме данных, заключается в том, что одна операция выполняется сразу над всеми элементами массива данных. Различные фрагменты такого массива обрабатываются на векторном процессоре или на разных процессорах параллельной машины. Распределением данных между процессорами занимается программа. Векторизация или распараллеливание в этом случае чаще всего выполняется уже на этапе компиляции – перевода исходного текста программы в машинные команды. Роль программиста в этом случае обычно сводится к заданию настроек векторной или параллельной оптимизации компилятору, директив параллельной компиляции, использованию специализированных языков для параллельных вычислений. Параллелизм задач (многопоточность) Стиль программирования, основанный на параллелизме задач, подразумевает, что вычислительная задача разбивается на несколько относительно самостоятельных подзадач и каждый процессор загружается своей собственной подзадачей. Распределенные операционные системы Распределённая ОС, динамически и автоматически распределяя работы по различным машинам системы для обработки, заставляет набор сетевых машин работать как виртуальный унипроцессор. Пользователь распределённой ОС, вообще говоря, не имеет сведений о том, на какой машине выполняется его работа. Распределённая ОС существует как единая операционная система в масштабах вычислительной системы.
Подобные микроскопические ландшафты генерировались одним набором строчек компьютерного кода(*). Граница находится там, где программа для системы Мандельбро идет на множество компромиссов, а ее скорость замедляется более всего. На указанном рубеже, когда сто, или тысяча, или десять тысяч итераций не приносят результата, программа все еще не может дать определенного ответа на вопрос, входит ли определенная точка в пределы системы или нет. Кто знает, что принесет миллионная итерация? Поэтому программы, которые строят самые захватывающие изображения системы с наиболее детальным увеличением, выполняются на мощных универсальных вычислительных машинах или компьютерах с параллельной обработкой данных, где тысячи индивидуальных процессоров производят одни и те же вычисления в аналогичном порядке. Граница располагается там, где точки медленнее всего ускользают от притяжения системы, будто балансируя между двумя соревнующимися аттракторами, один из которых располагается в нуле, а другой на бесконечности. Когда ученые, закончив с системой Мандельбро, обратились к изображению реальных физических явлений, свойства границы вышли на передний план
1. Процессоры. История развития. Структура. Архитектура
4. Геологическая история развития Австралии. Большой Водораздельный хребет
5. История развития земельного права России
9. История развития музыкальных вкусов молодежи 60-70г.
10. История развития внутренних войск
11. История развития Московского водопровода
12. История развития информатики
13. История развития ЭВМ. Механические и электромеханические счетные машины
14. История развития акушерства
15. История развития профессиональной преступности
16. История развития внутренних войск
17. История развития детско-юношеского туризма
18. История развития педагогики
19. История развития теплоэнергетики в России
21. История развития этикета: факты
25. История развития олимпийских игр
26. История развития спорта в Белгородской области
27. История развития физической культуры в древней Греции и Риме
28. История развития баскетбола
29. История развития банковского дела в России
30. История развития товарных отношений
31. История развития туризма в России
33. История развития Феминизма в России
34. История развития начертательной геометрии
36. История развития идеологов социал демократии
41. История развития музыкальных вкусов молодежи 60-70 г.
42. История развития неевклидовой геометрии
44. История развития теории и практики менеджмента
45. История развития искусственного интеллекта
46. История развития третейского суда в России
47. История развития психологии
48. История развития психологической мысли в эпоху феодализма и в период возрождения
49. История развития формы креста
50. История развития социологии
52. Сверхпроводимость : история развития, современное состояние, перспективы
53. История Развития Экстремальных Видов Спорта
57. История развития экономико-математического моделирования
58. История развития наследственного права в Древнем Риме
59. История развития службы по чрезвычайным ситуациям
60. История развития жизни на земле
61. Краткая история развития коллоидной химии как науки
62. Мировая валютная система: история развития
63. История развития морского транспорта
64. Геологическая история Земли. История развития Земли в докембрии и палеозое
65. К истории развития сейсмологических исследований на вулканах Камчатки
66. История развития атомной энергетики
67. История развития китайской письменности
69. История развития вычислительной техники
73. История развития автомобилей
75. История развития понятия "функция"
76. История развития психологии как науки
77. История развития и становления норм и правил этикета в России
78. История развития антропологии
79. История развития банковской системы в России
80. История развития и основы функционирования Банка России
81. История развития страхования
82. История развития и предмет изучения анатомии
83. История развития микробиологии
84. История развития физиологии высшей нервной деятельности
85. История развития домашнего птицеводства как отрасли сельского хозяйства
89. История развития и тенденции становления аудита
91. История развития картографии и знаний людей о форме и размере Земли
92. Культура и история развития Монако
93. Альтернативная история развития государств
94. История развития и принятия Конституции РФ
95. История развития криминалистики
96. История развития криминологии и роль российской научной школы в ней
97. История развития понятия "Гражданское общество"
98. История развития прокуратуры России
99. История развития специализированных органов розыска преступников в конце19 начале 20 в.