Как сделать кластер на компьютере

Обновлено: 06.07.2024

Вычислительный кластер – это набор соединенных между собой компьютеров (серверов), которые работают вместе и могут рассматриваться как единая система. В отличие от грид-вычислений, все узлы компьютерного кластера выполняют одну и ту же задачу и управляются одной системой управления.

Серверы кластера обычно соединяются между собой по быстродействующей локальной сети, причем на каждом из серверов работает собственный экземпляр операционной системы. В большинстве случаев все вычислительные узлы кластера используют одинаковое оборудование и одну и ту же операционную систему. Однако в некоторых инсталляциях, например, с использованием платформы приложений для организации кластеров OSCAR (Open Source Cluster Application Resources), могут использоваться различные операционные системы или разное серверное оборудование.

Кластеры обычно развертываются для большей производительности и доступности, чем то, что можно получить от одного компьютера, пусть даже очень мощного. Часто такое решение более экономично, чем отдельные компьютеры.

Компоненты кластера

Вычислительные кластеры обычно состоят из следующих компонентов:

  • узел доступа;
  • вычислительные узлы;
  • файловый сервер;
  • файловая или объектная СХД с общим доступом;
  • локальная сеть LAN.

Виды кластеров

Различают следующие основные виды кластеров:

  • кластеры высокой доступности (High-availability clusters, HA);
  • кластеры с балансировкой нагрузки (Load balancing clusters);
  • высокопроизводительные кластеры (High performance computing clusters, HPC).

Кластеры высокой доступности

Чрезвычайно высокая доступность в НА-кластерах достигается за счет использования специального программного обеспечения и аппаратных решений со схемами обнаружения отказов, а также благодаря работе по подготовке к отказам.

ПО для НА-кластеров обычно заблаговременно конфигурирует узел на резервном сервере и запускает на нем приложение в фоновом режиме так, чтобы основной экземпляр приложения мог немедленно переключиться на свою реплику на резервном компьютере при отказе основного.

Но не следует думать, что технология кластера высокой доступности, или вообще кластеризация, могут служить заменой резервному копированию (backup), а также решениям катастрофоустойчивости (disaster recovery).

Кластеры с балансировкой нагрузки

Балансировка нагрузки – это эффективное распределение входящего сетевого трафика в группе (кластере) серверов.

Современные веб-сайты должны одновременно обслуживать сотни тысяч и даже миллионы запросов от пользователей или клиентов и не слишком задерживать их в получении контента: текста, видео или данных приложений. Чем больше серверов будут обслуживать эти запросы, тем лучше будет качество воспринимаемого сервиса для клиентов. Однако может возникнуть ситуация, когда одни серверы сайта будут работать с перегрузкой, а другие будут почти простаивать.

Балансировщик нагрузки направляет запросы клиентов равномерно на все серверы кластера, которые способны ответить на те или иные запросы. Таким образом, балансировщик максимизирует процент использования вычислительной емкости, а также обеспечивает то, что ни один сервер не оказывается перегруженным, вызывая общую деградацию производительности кластера.

Если какой-то сервер отказывает, то балансировщик перенаправляет трафик на оставшиеся серверы. Когда новый сервер добавляется к группе (кластеру), то балансировщик автоматически перераспределяет нагрузку на всех серверах с учетом вновь вступившего в работу.

Таким образом, балансировщик нагрузки выполняет следующие функции:

  • Распределяет запросы клиентов и нагрузку сети эффективным образом в во всем кластере серверов.
  • Обеспечивает высокую доступность и надежность посылкой запросов только на те серверы, которые находятся в режиме онлайн.
  • Обеспечивает гибкость, добавляя или удаляя серверы по мере надобности.

Работа балансировщика нагрузки

Алгоритмы балансировки нагрузки

Различные алгоритмы балансировки предназначены для разных целей и достижения разных выгод. Можно назвать следующие алгоритмы балансировки:

  • Round Robin – запросы распределяются по кластеру серверов последовательно.
  • Least Connections – новый запрос посылается на сервер с наименьшим числом подключений клиентов, однако при этом учитывается и вычислительная мощность каждого сервера.
  • Least Time – запросы посылаются на сервер, выбираемый по формуле, которая комбинирует быстроту ответа и наименьшее число активных запросов.
  • Hash – распределяет запросы на основании определяемого пользователем ключа, например, IP-адреса клиента или URL запрашиваемого сайта.
  • Random with Two Choices – выбираются два сервера по методу произвольного выбора и затем запрос посылается на один из них, который выбирается по критерию наименьшего числа подключений.

Программная и аппаратная балансировка нагрузки

Балансировщики нагрузки бывают двух типов: программные и аппаратные. Программные балансировщики можно установить на любой сервер достаточной для задачи емкости. Поставщики аппаратных балансировщиков просто загружают соответствующее программное обеспечение балансировки нагрузки на серверы со специализированными процессорами. Программные балансировщики менее дорогие и более гибкие. Можно также использовать облачные решения сервисов балансировки нагрузки, такие как AWS EC2.

Высокопроизводительные кластеры (HPC)

Высокопроизводительные вычисления HPC (High-performance computing) – это способность обрабатывать данные и выполнять сложные расчеты с высокой скоростью. Это понятие весьма относительное. Например, обычный лэптоп с тактовой частотой процессора в 3 ГГц может производить 3 миллиарда вычислений в секунду. Для обычного человека это очень большая скорость вычислений, однако она меркнет перед решениями HPC, которые могут выполнять квадриллионы вычислений в секунду.

Одно из наиболее известных решений HPC – это суперкомпьютер. Он содержит тысячи вычислительных узлов, которые работают вместе над одной или несколькими задачами, что называется параллельными вычислениями.

HPC очень важны для прогресса в научных, промышленных и общественных областях.

Такие технологии, как интернет вещей IoT (Internet of Things), искусственный интеллект AI (artificial intelligence), и аддитивное производство (3D imaging), требуют значительных объемов обработки данных, которые экспоненциально растут со временем. Для таких приложений, как живой стриминг спортивных событий в высоком разрешении, отслеживание зарождающихся тайфунов, тестирование новых продуктов, анализ финансовых рынков, – способность быстро обрабатывать большие объемы данных является критической.

Чтобы создать HPC-кластер, необходимо объединить много мощных компьютеров при помощи высокоскоростной сети с широкой полосой пропускания. В этом кластере на многих узлах одновременно работают приложения и алгоритмы, быстро выполняющие различные задачи.

Чтобы поддерживать высокую скорость вычислений, каждый компонент сети должен работать синхронно с другими. Например, компонент системы хранения должен быть способен записывать и извлекать данные так, чтобы не задерживать вычислительный узел. Точно так же и сеть должна быстро передавать данные между компонентами НРС-кластера. Если один компонент будет подтормаживать, он снизит производительность работы всего кластера.

Существует много технических решений построения НРС-кластера для тех или иных приложений. Однако типовая архитектура НРС-кластера выглядит примерно так, как показано на рисунке ниже.

Примеры реализации вычислительного кластера

В лаборатории вычислительного интеллекта создан вычислительный кластер для решения сложных задач анализа данных, моделирования и оптимизации процессов и систем.

Кластер представляет собой сеть из 11 машин с распределенной файловой системой NFS. Общее число ядер CPU в кластере – 61, из них высокопроизводительных – 48. Максимальное число параллельных высокоуровневых задач (потоков) – 109. Общее число ядер графического процессора CUDA GPU – 1920 (NVidia GTX 1070 DDR5 8Gb).

На оборудовании кластера успешно решены задачи анализа больших данных (Big Data): задача распознавания сигнала от процессов рождения суперсимметричных частиц, задача классификации кристаллических структур по данным порошковой дифракции, задача распределения нагрузки электросетей путем определения выработки электроэнергии тепловыми и гидроэлектростанциями с целью минимизации расходов, задача поиска оптимального расположения массива кольцевых антенн и другие задачи.

Архитектура вычислительного кластера

Другой вычислительный НРС-кластер дает возможность выполнять расчеты в любой области физики и проводить многодисциплинарные исследования.

На рисунке показана визуализация результатов расчета реактивного двигателя, зависимость скорости расчетов и эффективности вычислений от количества ядер процессора.

Для эффективной эксплуатации высокопроизводительных кластерных установок необходимо использовать сложный комплекс программных систем. Долгое время пользователям Windows кластеров приходилось одновременно использовать программное обеспечение нескольких производителей, что могло быть причиной проблем с совместимостью различных программ друг с другом. C выходом Compute Cluster Server 2003 (CCS) можно говорить о том, что компания Microsoft предоставляет полный спектр программного обеспечения, необходимый для эффективной эксплуатации кластера и разработки программ, в полной мере использующих имеющиеся вычислительные мощности.

Microsoft Compute Cluster Server 2003 (CCS) представляет собой интегрированную платформу для поддержки высокопроизводительных вычислений на кластерных системах. CCS состоит из операционной системы Microsoft Windows Server 2003 и Microsoft Compute Cluster Pack (CCP) – набора интерфейсов, утилит и инфраструктуры управления. Вместе с CCP поставляется SDK, содержащий необходимые инструменты разработки программ для CCS. Кроме того, к Microsoft Compute Cluster Server 2003 логически примыкает Microsoft Visual Studio 2005, являющийся интегрированной средой разработки (IDE) параллельных программ, содержащий компилятор и отладчик программ, разработанных с использованием технологий MPI и OpenMP.

В качестве вычислительных узлов кластера могут быть использованы 64-битные процессоры семейства x86 с, как минимум, 512 Мб оперативной памяти и 4 Гб свободного дискового пространства.

На вычислительных узлах кластера должна быть установлена операционная система Microsoft Windows Server 2003 (Standard, Enterprise или Compute Cluster Edition).

В состав CCP входит Microsoft MPI –реализация стандарта MPI 2 от Argonne National Labs. MS MPI основана на MPICH 2 и поддерживает полнофункциональный API с более чем 160 функциями. MS MPI в Windows Compute Cluster Server 2003 использует WinSock Direct протокол для наилучшей производительности и эффективного использования центрального процессора. MS MPI может использовать любое Ethernet соединение, поддерживаемое Windows Server 2003, а также такие соединения как InfiniBand или Myrinet с использованием WinSock Direct драйверов, поставляемых производителями аппаратного обеспечения. MS MPI поддерживает языки программирования: C, Fortran 77 и Fortran 90, - а Microsoft Visual Studio 2005 включает параллельный отладчик, работающий с MS MPI. Разработчики могут запустить свое MPI приложение на нескольких вычислительных узлах, и Visual Studio автоматически соединится с процессами на каждом узле, позволяя разработчику приостанавливать приложение и просматривать значения переменных в каждом процессе отдельно.

Кроме реализации MPI в состав CCP входит удобная система планирования заданий, позволяющая просматривать состояния всех запущенных задач, собирать статистику, назначать запуски программ на определенное время, завершать "зависшие" задачи и пр. Система предоставляет следующие интерфейсы: командная строка, графический интрфейс, COM, веб-сервис и др.

Windows Compute Cluster Server 2003 поддерживает 5 различных сетевых топологий, при этом каждый узел может иметь от 1 до 3 сетевых карточек. Правильный выбор используемой топологии необходим для оптимального функционирования вычислительного кластера.

Полная инструкция по установке Microsoft Compute Cluster Server 2003 и выполнении заданий под управлением этой системы представлена в лабораторной работе 1 и лабораторной работе 2, разработанных в рамках учебного курса "Теория и практика параллельных вычислений".

Свой первый “кластер” из одноплатных компьютеров я построил почти сразу после того, как микрокомпьютер Orange Pi PC начал набирать популярность. “Кластером” это можно было назвать с большой натяжкой, ибо с формальной точки зрения это была всего лишь локальная сеть из четырёх плат, которые “видели” друг друга и могли выходить в Интернет.

Устройство участвовало в проекте SETI@home и даже успело что-то насчитать. Но, к сожалению, никто не прилетел забрать меня с этой планеты.
Однако, за всё время возни с проводами, разъёмами и microSD-картами я многому научился. Так, например, я выяснил, что не стоит доверять заявленной мощности блока питания, что было бы неплохо распределять нагрузку в плане потребления, да и сечение провода имеет значение.

Начну, пожалуй, с неё. Задача свелась к относительно простым действиям — через заданный промежуток времени последовательно включить 4 канала, по которым подаётся 5 вольт. Самый простой способ реализовать задуманное — Arduino (коих у каждого уважающего себя гика в избытке) и вот такая чудо-плата с Али с 4мя реле.

Плата реле

И знаете, оно даже заработало.

Плата с реле и микроконтроллером

Кластер с управлением питанием

Однако, “холодильник-style” щелчки при старте вызывали некоторое отторжение. Во-первых при щелчке пробегала помеха по питанию и нужно было ставить конденсаторы, а во вторых вся конструкция была довольно крупной.

Так что в один прекрасный день я просто заменил блок реле на транзисторные ключи на основе IRL520.

Плата управления питанием IRL520

Это решило вопрос с помехами, но поскольку mosfet управляет “нулём”, пришлось отказаться от латунных ножек в стойке, дабы не соединить случайно землю плат.

И вот, решение отлично тиражируется и уже два кластера работают стабильно без всяких сюрпризов. Just as planned.

Одноплатники в кластере

Но, вернёмся к тиражируемости. Зачем покупать блоки питания за ощутимую сумму, когда буквально под ногами есть много доступных ATX ?
Мало того, на них есть все напряжения (5,12,3.3), зачатки самодиагностики и возможность программного управления.

Ну тут я особо распинаться не буду — статья про управление ATX через Ардуино есть вот здесь.

Ну что, все таблетки подъедены, марки тоже наклеены ? Пора объединить это всё воедино.

Диаграмма настольного кластера

Будет один головной узел, который соединяется с внешним миром по WiFi и отдаёт " интернеты" в кластер. Он будет питаться от дежурного напряжения ATX.

Фактически, за раздачу инета отвечает TBNG.
Так что при желании узлы кластера можно спрятать за TOR.

Также, будет хитрая плата, подключенная по i2c к этому головному узлу. Она сможет включать-выключать каждый из 10 рабочих узлов. Плюс, будет уметь управлять тремя вентиляторами 12в для охлаждения всей системы.

Сценарий работы такой — при включении ATX в 220в стартует головной узел. Когда система готова к работе — он последовательно включает все 10 узлов и вентиляторы.
Когда процесс включения закончен — головной узел будет обходить каждый рабочий узел и спрашивать мол, как мы себя чувствуем, какая мол температура. Если одна из стоек греется — увеличим обдув.
Ну и при команде отключения каждый из узлов будет аккуратно погашен и обесточен.

Схему платы я рисовал сам, поэтому выглядит она жутко. Однако, за трассировку и изготовление взялся хорошо обученный человек, за что ему большое спасибо.

Вот она в процессе сборки

Управляющая плата в процессе сборки

Вот один из первых эскизов расположения компонент кластера. Сделан на листке в клетку и увековечен через Office Lens телефоном.

Как все начиналось - эскиз кластера

Вся конструкция помещается на листе текстолита, купленного по случаю.

Примерно так выглядит расположение узлов внутри. Две стойки по пять плат.

Кластер в процессе сборки

Тут проглядывается управляющая Arduino. Она соединена с головной Orange Pi Pc по i2c через конвертер уровней.

Ну а вот финальный (текущий вариант).

Кластер стартует

Итак, все что нужно — это написать несколько утилит на Питоне, которые бы всей этой музыкой дирижировали — включали, включали, регулировали скорость вентилятора.

Не буду утомлять техническими подробностями — выглядит примерно так:

Поскольку узлов у нас уже целых 10, берём на вооружение Ansible, который поможет , например, правильно выключить все узлы. Или запустить на каждом монитор температуры.

Меня часто в пренебрежительном тоне обвиняют, мол это просто локальная сеть одноплатников (как я уже упоминал в самом начале). Мне, в целом, насрать на чужое мнение, но пожалуй, добавим гламура и организуем docker swarm cluster.
Задача весьма простая и выполняется меньше чем за 10 минут. Потом запустим на головной ноде экземпляр Portainer, и вуаля!

Теперь можно реально масштабировать задачи. Так, в данный момент в кластере работает майнер криптовалюты Verium Reserve. И, довольно успешно. Надеюсь, ближайший туземун окупит съеденное электричество ;) Ну или сократить количество вовлеченных узлов и майнить что-нибудь ещё типа Turtle Coin.

Если хочется полезной нагрузки — в кластер можно закинуть Hadoop или устроить балансировку веб-серверов. Готовых образов в интернете много, да и обучающего материала достаточно. Ну а если образ (docker image) отсутствует — всегда можно собрать свой.

Чему меня это научило ? В целом, “стек” технологий очень широкий. Судите сами - Docker, Ansible, Python, прокачка Arduino (прости господи, ни к ночи будет сказано), ну и шелл конечно же. А так же KiCad и работа с подрядчиком :).

Что можно сделать лучше ? Многое. По софтовой части было бы неплохо переписать управляющие утилиты на Go. По железной — make it more steampunkish — КДПВ в начале отлично задирает планку. Так что есть, над чем работать.

  • Головной узел — Orange Pi PC с usb wifi.
  • Рабочие узлы — Orange Pi PC2 x 10.
  • Сеть — 100 мбит TP-link@16ports.
  • Мозг — Клон Arduino на базе Atmega8 + конвертер уровней.
  • Сердце — контроллер питания АТХ с блоком питания.
  • Софт (душа) — Docker, Ansible, Python 3, немного шелла и чуть чуть лени.
  • Потраченное время — бесценно.

В процессе экспериментов пострадала пара плат Orange Pi PC2 из-за перепутанного питания (очень красиво горят), ещё одна PC2 лишилась Ethernet (это отдельная история, в которой я не понимаю физики процесса).

Вот вроде бы и вся история “по верхам”. Если кто-то считает её интересной — задавайте вопросы в комментариях. И голосуйте там же за вопросы (плюсуйте — у каждого коммента есть кнопка для этого). Наиболее интересные вопросы будут освещены в новых заметках.
Спасибо, что дочитали до конца.

Все пользователи работают с документами в Microsoft Word и нередко возникает вопрос, как создать схему, таблицу, и рисунок.

В этой пошаговой инструкции расскажу разные пути создания кластера с помощью готовых фигур, а также как самому начертить схему в дополнительных утилитах.

Создание блок схемы

Если вами нужно как можно быстрее сделать схему в Word, то вот вам идеальный вариант:

Обращаем внимание, что, кликнув мышью на каждый объект, вы увидите его описание. Эта функция поможет вам определиться с нужным объектом под ваши задачи.

Добавление и удаление фигур

Добавляем дополнительное поле в схему

Если после решения вопроса, как нарисовать схему, вам нужно добавить дополнительное поле к схеме:

Удаляем лишнее поле внутри схемы

Удаление блока

Очень часто при создании кластера, в ворде могут добавляться лишние блоки. Удалить лишние поля можно просто выделив любой блок левой кнопкой мыши и удалить его.

Как переместить блок в схеме

Когда после создания схемы, вы хотите переместить готовый объект в другое место документа:

Изменяем цвет

Как изменить цвет линий, границу каждой фигуры

Давайте разберём, как изменять не только фон, но и линии блоков схемы.

Меняем блоки в разный и единый цвет

При создании схемы в ворде часто нужно изменить фон блоков.

Обращаем ваше внимание, что изменить можно и прозрачность цвета.

Как нарисовать или создать блок схему в сторонних программах

Чтобы решить вопрос, как создать кластер в Word, вы можете воспользоваться сторонними программами, Excel, Power Point, Visio.
Если вы решили сделать кластер в Power Point, то действия будут такими же, как и в Word с помощью объекта SmartArt.

Создать структуру в Excel

Создать в программе Visio

Чтобы начертить кластер:

Так, мы разобрали разные инструменты создания кластера с помощью самой программы Word и сторонних утилит. Кроме этого рассказали, как изменить стиль блоков, переместить элементы и соединить их.

В настоящее время существует множество программ для создания 3D-графики, но наиболее распространенными из них являются 3dMax и Maya ? мощные пакеты для создания трехмерных иллюстраций. Большая часть времени при работе в таких программах, как правило, уходит на создание картинки, а если сцена сложная, то к времени собственно создания нужно еще добавить время на рендеринг.

ендеринг ? это процесс, в результате которого двумерная иллюстрация переходит в новое, трехмерное качество, наполняясь содержанием по всем трем плоскостям. Время, затрачиваемое на рендеринг конечного изображения, зависит прежде всего от производительности процессорной подсистемы графической станции. Если графическая станция обладает слабым процессором и малым объемом оперативной памяти, то, несомненно, на рендеринг даже несложной сцены уйдет несколько часов.

Большинство программ для создания 3D-анимации имеют несколько типов дополнительного программного обеспечения для рендеринга окончательного результата. Например, только для пакета Maya существует около десятка модулей для рендеринга, каждый из которых используется для создания определенных спецэффектов и выполняет работу с ними намного быстрее, чем другие подобные рендеры. Модули различаются по скорости работы, качеству и количеству настроек, хотя по сути выполняют одну и ту же функцию ? создание конечного изображения.

Как показывает практика, при создании сложных сцен с использованием множества спецэффектов и текстур на рендеринг конечного изображения тратится столько же времени, сколько и на создание самой сцены. К тому же при изменении освещения или при помещении еще одного малого объекта приходится пересчитывать сцену заново, что отнимает время, которого всегда не хватает.

Сейчас на рынке представлено множество специализированных графических станций для работы с 3D-графикой и анимацией, однако цены их непомерно высоки, и не каждая фирма может позволить себе приобрести такой специализированный компьютер. Впрочем, существуют и альтернативные решения для просчета 3D-сцен. Одним из них является создание кластера для рендеринга, состоящего из нескольких недорогих компьютеров, объединенных в одну локальную сеть. Принципиальная схема такого кластера показана на рис. 1.

Рис. 1. Принципиальная схема кластера для рендеринга

Рис. 1. Принципиальная схема кластера для рендеринга

С помощью специального ПО кластер позволяет разделить нагрузку между несколькими компьютерами, объединенными в сеть. Один из этих компьютеров является сервером, который отдает пакеты на выполнение остальным компьютерам-клиентам. Нельзя обойти вниманием и тот факт, что при этом компьютеры, подключенные в сеть, могут иметь различную конфигурацию как аппаратной, так и программной части, правда в данном случае один ПК будет просчитывать часть сцены быстрее, а другой медленнее. Окончательный результат будет готов лишь после сбора всех отработанных частей сцены.

Компьютеры-клиенты, как уже отмечалось, могут иметь различную конфигурацию, при этом утилита Virtual Vertex Muster поддерживает работу с клиентами под управлением ОС Windows, Linux, Irix, а также Mac OS X.

Интерфейс управления сервером интуитивно понятен, и в нем легко разобраться, однако и здесь имеется несколько подводных камней, о которых следует знать. Чтобы клиенты могли получить необходимый для них пакет, а потом сохранить выполненную часть работы на сервере или в ином месте, каждый из них должен иметь доступ к папке со сценой и к папке с результатами ? обязательным условием для этого является свободный доступ на чтение и запись к этой папке.

Пакет Virtual Vertex Muster также дает возможность задать приоритет каждому конкретному заданию по рендерингу, поскольку предназначен для просчета нескольких десятков сцен последовательно или одновременно.

Стоит отметить и возможность создания виртуальных подсетей (pool) из клиентов, благодаря чему одна виртуальная сеть может содержать в себе наиболее мощные компьютеры-клиенты, а другая ? слабые, и именно ей в последующем будет поручена наименее сложная работа.

Для оценки прироста производительности сетевого кластера для рендеринга трехмерных сцен с помощью пакета Virtual Vertex Muster мы использовали сетевой стенд из восьми одинаковых компьютеров на базе процессора Intel Pentium 4 3,0 ГГц, оснащенных 512 Мбайт оперативной памяти DDR400. На всех компьютерах были установлены гигабитные сетевые адаптеры, а сеть разворачивалась на основе гигабитного коммутатора.

На семи компьютерах была установлена операционная система Windows XP Professional, а на восьмом ПК, выполняющем функцию сервера, ? ОС Windows 2003 Server. При этом каждый компьютер имел всего один сервис клиента, который запускался в виде сервиса. Сервер рендеринга являлся также и клиентом. На всех компьютерах были установлены пакеты Maya 6.5 и 3dMax 7.0.

Первоначально рендеринг сложной трехмерной сцены производился с использованием одного клиента, затем двух и т.д. ? вплоть до восьми клиентов. В каждом случае фиксировалось время рендеринга сцены. Таким образом были получены графики зависимости времени рендеринга от числа узлов в кластере.

Результаты тестирования представлены на рис. 2 и 3. Как следует из результатов тестирования, и в пакете Maya 6.5, и в пакете 3dMax 7.0 время, затрачиваемое на рендеринг сцены, практически линейно убывает по мере увеличения числа узлов в кластере.

Рис. 2. Зависимость скорости рендеринга трехмерной сцены от количества узлов в кластере в пакете Maya 6.5

Рис. 2. Зависимость скорости рендеринга трехмерной сцены от количества узлов в кластере в пакете Maya 6.5

Рис. 3. Зависимость скорости рендеринга трехмерной сцены от количества узлов в кластере в пакете 3dMax 7.0

Рис. 3. Зависимость скорости рендеринга трехмерной сцены от количества узлов в кластере в пакете 3dMax 7.0

Приведенные выше результаты показывают, что работа сетевого рендеринга зачастую зависит не от аппаратной начинки клиентов, а от их количества. Такое решение задачи сокращения времени создания трехмерного изображения выгодно не только малым, но и крупным компаниям. Кластер позволяет значительно ускорить проработку сцен. При этом данное решение является масштабируемым и позволяет постоянно увеличивать мощность путем подключения дополнительных компьютеров-клиентов. Это решение подходит и в случае установки программ сетевого рендеринга на компьютеры в офисе, так как ночью ПК могут заниматься просчетом сцен, а возможность задания приоритетов позволяет использовать сетевой рендеринг в фоновом режиме в рабочее время на компьютерах сотрудников.

Читайте также: