Виртуальные сервреа в Красноярске берем у интелкома. Оптизон дедики втюхивает морально устаревшие, ростелеком мозг выносит на этапе согласования, не представляю что было бы если мы у них покупали и не дайбог обратились в их 10 ступенчатую службу поддержки.....Билайн с красноярска сьехал, Искра тоже рассматривали но коллеги из ИТ сектора переубедили, у них сервера чет сильно часто падают в ЦОДЕ. Вообщем из реальных в Красноярске пока только Интелком.
"Одна из проблем ЦОДов - утилизация тепловыделения. И на полном серьезе рассматриваются решения с использованием вечной мерзлоты. Это даст весьма существенную экономию." А сауну при ней слабо построить? Ну, типа там, еще лупанарий туда же. Все окупится!
у больших компаний есть свои ЦОДы, а малые фирмы и собственными силами справляются. Смысл хостить, где то какую нить 1с, если можно у себя комп поставить соизмеримый размерам фирмы и поднять там все что надо? Так же и с остальным. Пахнет вариантом втюхать людям далёким от ИТ не нужную им облачную услугу. Но это лично мое мнение и возможно кому то это действительно пригодится, но стоит посчитать расходы, а не вестись на новомодные слова виртуализации и облачного хранения.
дорогое электричество на крайнем севере это не самая большая проблема. главная проблема ставящая крест на использовании ЦОД на крайнем севере - отсутствие скоростных линий связи. спутник с его задержками и конским ценником и никаких альтернатив даже в богатом норильске
Да и нахрен бы не сдалась эта вечная мерзлота! Тупо поставить греть воду в (маленькой) системе батарей. На небольшой офисочек точно хватит. Ну, или на гостинку с почасовкой.
Здравствуйте! Возможно некоторое недопонимание произошло по той причине, что вы упустили информацию с панельной дискуссии, которую мы проводили в рамках IT-Com. Об используемом оборудовании Формат пресс-конференции не предполагает перечисления точных характеристик дата-центра, потому как конференция рассчитана на широкий круг слушателей. Характеристики DataPool: blade Hewlett Packard, процессоры Xeon, система хранения данных 3PAR (дисковые массивы объемом 100 Tb различной производительности, включая SSD, внедрена технология Tiering), система резервного копирования с дедупликацией с эффективным сжатием 20:1, коммутационная фабрика Hewlett Packard и Cisco (внутренняя скорость до 10 Гбит/сек). На панельной дискуссии присутствовали наши вендоры – Hewlett Packard (HP) - и не раз отмечали достоинства их оборудования, использующегося в DataPool. О других дата-центрах в нашем крае DataPool позиционируется как первый коммерческий дата-центр на базе облачных технологий. ООО "Оптизон" (Оптибит) и «Интелком», насколько они сами сообщают, предоставляют услуги аренды виртуальных серверов на базе VDS, безусловно, технологии проверенной временем, тем не менее уступающей по параметрам отказоустойчивости и масштабируемости. В свою очередь, ближайший дата-центр на базе облачных технологий Ростелеком находится в Новосибирске. Мы нисколько не умаляем возможностей наших коллег и имеем партнерские соглашения с многими дата-центрами РФ, и на данный момент остаемся первым коммерческим дата-центром в Красноярском крае, работающий на базе облачных технологий. DataPool открыт для всех потенциальных клиентов – мы множество раз проводили экскурсию по ЦОД и демонстрировали оборудование дата-центра.
От лица компании Интелком могу сделать некоторые заявления: 1. В качестве оборудования мы используем: Серверы: IBM FlexSystem x240 ComputeNode процессоры Intel Xeon E5-2690v2 3ггц 10core\20Thrd (2 на лезвие) память на лезвиях 16GB DDRIII ECC*24шт 12800 (384гб на лезвие) сеть 4x10Gb в транке (макс. 80 гигабит внутр. скорость кластера) Серверы работают в составе IBM FlexSystem Chasis (новейшее поколение блейд-систем) Коммутаторы сетевые - IBM FlexSystem EN4093r (2шт на шасси для обеспечения отказоустойчивости, схема N+N) - порты 112x10gb + 4x40g Коммутаторы для дисковых систем (FiberChannel) - IBM FlexSystem FC5022 (2шт на шасси для обеспечения отказоустойчивости, схема N+N) - порты 96x16gb FC Системы хранения данных: есть несколько, основная - NetApp 8040 Дисковые полки включают диски: -400GB SSD (slc ~200k IOPS на диск) для кеша (технология FlashPool) -900GB SAS 10k (используются для слабонагруженных серверов) -600GB SAS 15k (используются для нагруженных серверов) Фичи NetApp - можно посмотреть на сайте и сравнить с "конкурентами", даже EMC - теперь догоняющие, не говоря про HP, Dell и прочий ширпотреб. Блочная дедубликация, флешпул, флешкэш, технологии vaai, технологии кластеризации с географически разнесенными нодами - все это давно доступно на OS DataOntap в СХД от НетЭпп, а самое главное - оно протестировано и отдано в работу не в виде релиз-кандидат, а в стабильном виде. СХД для бекапов - HP P2000G3FC - диски SAS 900Gb 10k СХД для загрузки гипервизоров и внутренних задач - EMC VNX 5300 Подключение СХД к кластеру осуществляется через протокол FC 16гб для NetApp, FC 8гб для EMC и HP, по 8 каналов на шасси. Мы имеем опыт эксплуатации порядка 5 топовых СХД разных вендоров, наш выбор остановился на NetApp - мы пожалуй единственные за Уралом, кто имеет опыт эксплуатации таких решений в нагруженых средах для предоставления облачных услуг. Гипервизоры: мы используем vmware esx, т.к. круче просто нет. Самое главное - "золотые головы" и "платиновые руки". Мы имеем собственных специалистов, мы сами разрабатывали архитектуру, сравнивая, сравнивая и сравнивая предложения на рынке, а не слепо веря продаванам, которые зачастую даже не представляют что продают (смешно, правда?). Мы сами вводили в эксплуатацию и аппаратную часть, и программную. В процессе настроек мы дали 1 багрепорт для ХП, для устранения проблем в СХД (проблема снижения затрат при одинаковых операциях вызывала кернел-паник контроллеров СХД), 3 багрепорта в IBM - устранение проблем в прошивках IMM модулей и коммутаторов. Сделали 1 репорт в vmware, но по нему были не первыми :) Собственно перечисленное выше, сопоставляя со словами товарища DataPool, мы можем говорить о том, что наше облако\кластер\площадка технологически лучше, вычислительно быстрее и если хотите - человекофакторно безопаснее и надежнее. И как говорил известный персонаж в известном фильме: - "такая есть только у меня и Майкла Джексона". В данный момент мы тестируем лезвия нового поколения - это серверы на базе процессоров Intel Xeon E5-2690v3 + новая память DDR IV и уже очень скоро, наши клиенты будут в очередной раз переведены на более современное оборудование, что позволит уменьшить стоимость владения за счет роста производительности аппаратной части. Да, к слову, за 5 лет работы, мы сделали 4 обновления оборудования, т.е. примерно каждый год наши клиенты пересаживаются на самое современное железо. Мои слова могут подтвердить наши клиенты, некоторые из них с нами более чем 5 лет, они доверились нам на этапе бетта-тестирования и как показывает практика - не жалеют. Ну и что касается трактовок понятий ОБЛАКО, ВДС, ВПС - ну совсем убого мыслите, товарищ Датапул.
Заметим, ни одной точной модели не названо. Рискну предположить, что те же циски в Красноярске есть вообще у всех, сервера на ксеонах тоже, ссд туда же. Офигеть какие преимущества, короче, Искра такая Искра. Пользуйтесь, граждане, лучше тем же Инфобоксом (у которого, сюрприз, тоже есть ЦОД в Красноярске).
Красиво на словах, а на деле? Думаю такой сервис надо прогонять двухгодичным тестом для всех желающих причем бесплатно, только так вылезут все проблемы. Будут-ли бесплатные аккаунты облачные в рамках долгосрочного теста?
DataPool открыт для всех потенциальных клиентов – мы множество раз проводили экскурсию по ЦОД и демонстрировали оборудование дата-центра. С безопасностью данных ..как то не очень :)
:) наши списанные серверы новее чем работающее железо у многих хостеров средней руки. Наши гипервизоры не умеют прятать оборудование, а показывают его какое оно есть на самом деле - попросите тест и посмейтесь.... .....над конкурентами :)
Хм. Вы просто не в курсе ситуации. если вам NetApp это устаревшее - вам надо матчасть изучать :) Ну и, заодно, почитайте уже что-то на тему облаков. Что бы хотя бы на базовом уровне понимать о чем речь.
нетап нетапу - рознь. НО мне что то подсказывает, что как бы я не относился положительно к интелкому - ресурсная база всё же поскуднее будет - просто вопрос масштаба
"с переносом в «облако» базовых ИТ-систем организаций: электронной почты, почтовых серверов, систем на базе 1С." Скажите, тексты пишутся для чего? Электронная почта и почтовые серверы - это в данном контексте не одно и то же, не? Или эта формулировка должна показать количество сервисов, которых, по сути, все года: почта и 1С. Про 1С, кстати, представитель Искры на той же конференции прямо сказал, что это сложно и иногда не возможно. Когда один из присутствующих там сисадминов задал вопрос про 1С.
1. Они не первые. Уже есть в Крсноярске Оптизона, есть Интелком, есть Ростелеком. 2. У них старое оборудование, устаревшее еще на момент запуска. 3. Из всех красноярских облачных сервисов самый качественный у Интелкома, у них самое лучшее оборудование в регионе. На конференции, кстати, представитель Искры так и не ответил на вопросы а) про оборудование. б) когда ему указали на конкурентов, то про Оптизону он рассказал, а Интелком не упоминул. Ибо если с Оптизоной они кое как, но могу конкурировать, то с Интелкомом конкурировать они могут только пользуясь своим лобби в гос.структурах.
Не факт. Одна из проблем ЦОДов - утилизация тепловыделения. И на полном серьезе рассматриваются решения с использованием вечной мерзлоты. Это даст весьма существенную экономию. И, кстати, тарифы на электроэнергию в регионах, которые не вошли в РАО ЕЭС существенно ниже. Например, в Иркутской губернии. http://energybase.ru/tariff/irkutsk/2015?Tariff[type_id]=1 Как-то так получилось, что мимо Чубайса проскочило, то меньше подорожало. И денег хватает развиваться.
А зачем утилизировать тепло? Можно "одеть" все это в котельную с отводом из ЦОДа и подогревать воду для жителей. Будет повод снизить цену на теплоноситель. Или инновации дальше блокирования парковочных карманов не идут у нас?
Орион, вы, конечно, звезда большая. То тусклая. Ваше предложение есть фуфло. Потому, что это тепло от ЦОДов низкотемпературное. Ничего вы не оденете и не отведёте в котельную. Разве только ваши нетленные труды.
Самый простой критерий: отсутствие проблем в выходные :) Если вам нужен сервис, в котором сотрудники с мыльной попой в субботу вечером исправляют свои косяки - тогда вы не наш клиент :)
И на полном серьезе рассматриваются решения с использованием вечной мерзлоты.
Это даст весьма существенную экономию."
А сауну при ней слабо построить? Ну, типа там, еще лупанарий туда же. Все окупится!
Смысл хостить, где то какую нить 1с, если можно у себя комп поставить соизмеримый размерам фирмы и поднять там все что надо? Так же и с остальным.
Пахнет вариантом втюхать людям далёким от ИТ не нужную им облачную услугу. Но это лично мое мнение и возможно кому то это действительно пригодится, но стоит посчитать расходы, а не вестись на новомодные слова виртуализации и облачного хранения.
Об используемом оборудовании
Формат пресс-конференции не предполагает перечисления точных характеристик дата-центра, потому как конференция рассчитана на широкий круг слушателей. Характеристики DataPool: blade Hewlett Packard, процессоры Xeon, система хранения данных 3PAR (дисковые массивы объемом 100 Tb различной производительности, включая SSD, внедрена технология Tiering), система резервного копирования с дедупликацией с эффективным сжатием 20:1, коммутационная фабрика Hewlett Packard и Cisco (внутренняя скорость до 10 Гбит/сек). На панельной дискуссии присутствовали наши вендоры – Hewlett Packard (HP) - и не раз отмечали достоинства их оборудования, использующегося в DataPool.
О других дата-центрах в нашем крае
DataPool позиционируется как первый коммерческий дата-центр на базе облачных технологий.
ООО "Оптизон" (Оптибит) и «Интелком», насколько они сами сообщают, предоставляют услуги аренды виртуальных серверов на базе VDS, безусловно, технологии проверенной временем, тем не менее уступающей по параметрам отказоустойчивости и масштабируемости. В свою очередь, ближайший дата-центр на базе облачных технологий Ростелеком находится в Новосибирске. Мы нисколько не умаляем возможностей наших коллег и имеем партнерские соглашения с многими дата-центрами РФ, и на данный момент остаемся первым коммерческим дата-центром в Красноярском крае, работающий на базе облачных технологий.
DataPool открыт для всех потенциальных клиентов – мы множество раз проводили экскурсию по ЦОД и демонстрировали оборудование дата-центра.
1. В качестве оборудования мы используем:
Серверы:
IBM FlexSystem x240 ComputeNode
процессоры Intel Xeon E5-2690v2 3ггц 10core\20Thrd (2 на лезвие)
память на лезвиях 16GB DDRIII ECC*24шт 12800 (384гб на лезвие)
сеть 4x10Gb в транке (макс. 80 гигабит внутр. скорость кластера)
Серверы работают в составе IBM FlexSystem Chasis (новейшее поколение блейд-систем)
Коммутаторы сетевые - IBM FlexSystem EN4093r (2шт на шасси для обеспечения отказоустойчивости, схема N+N) - порты 112x10gb + 4x40g
Коммутаторы для дисковых систем (FiberChannel) - IBM FlexSystem FC5022 (2шт на шасси для обеспечения отказоустойчивости, схема N+N) - порты 96x16gb FC
Системы хранения данных:
есть несколько, основная - NetApp 8040
Дисковые полки включают диски:
-400GB SSD (slc ~200k IOPS на диск) для кеша (технология FlashPool)
-900GB SAS 10k (используются для слабонагруженных серверов)
-600GB SAS 15k (используются для нагруженных серверов)
Фичи NetApp - можно посмотреть на сайте и сравнить с "конкурентами", даже EMC - теперь догоняющие, не говоря про HP, Dell и прочий ширпотреб.
Блочная дедубликация, флешпул, флешкэш, технологии vaai, технологии кластеризации с географически разнесенными нодами - все это давно доступно на OS DataOntap в СХД от НетЭпп, а самое главное - оно протестировано и отдано в работу не в виде релиз-кандидат, а в стабильном виде.
СХД для бекапов - HP P2000G3FC - диски SAS 900Gb 10k
СХД для загрузки гипервизоров и внутренних задач - EMC VNX 5300
Подключение СХД к кластеру осуществляется через протокол FC 16гб для NetApp, FC 8гб для EMC и HP, по 8 каналов на шасси.
Мы имеем опыт эксплуатации порядка 5 топовых СХД разных вендоров, наш выбор остановился на NetApp - мы пожалуй единственные за Уралом, кто имеет опыт эксплуатации таких решений в нагруженых средах для предоставления облачных услуг.
Гипервизоры:
мы используем vmware esx, т.к. круче просто нет.
Самое главное - "золотые головы" и "платиновые руки". Мы имеем собственных специалистов, мы сами разрабатывали архитектуру, сравнивая, сравнивая и сравнивая предложения на рынке, а не слепо веря продаванам, которые зачастую даже не представляют что продают (смешно, правда?).
Мы сами вводили в эксплуатацию и аппаратную часть, и программную.
В процессе настроек мы дали 1 багрепорт для ХП, для устранения проблем в СХД (проблема снижения затрат при одинаковых операциях вызывала кернел-паник контроллеров СХД), 3 багрепорта в IBM - устранение проблем в прошивках IMM модулей и коммутаторов. Сделали 1 репорт в vmware, но по нему были не первыми :)
Собственно перечисленное выше, сопоставляя со словами товарища DataPool, мы можем говорить о том, что наше облако\кластер\площадка технологически лучше, вычислительно быстрее и если хотите - человекофакторно безопаснее и надежнее.
И как говорил известный персонаж в известном фильме: - "такая есть только у меня и Майкла Джексона".
В данный момент мы тестируем лезвия нового поколения - это серверы на базе процессоров Intel Xeon E5-2690v3 + новая память DDR IV и уже очень скоро, наши клиенты будут в очередной раз переведены на более современное оборудование, что позволит уменьшить стоимость владения за счет роста производительности аппаратной части.
Да, к слову, за 5 лет работы, мы сделали 4 обновления оборудования, т.е. примерно каждый год наши клиенты пересаживаются на самое современное железо.
Мои слова могут подтвердить наши клиенты, некоторые из них с нами более чем 5 лет, они доверились нам на этапе бетта-тестирования и как показывает практика - не жалеют.
Ну и что касается трактовок понятий ОБЛАКО, ВДС, ВПС - ну совсем убого мыслите, товарищ Датапул.
Рискну предположить, что те же циски в Красноярске есть вообще у всех, сервера на ксеонах тоже, ссд туда же.
Офигеть какие преимущества, короче, Искра такая Искра. Пользуйтесь, граждане, лучше тем же Инфобоксом (у которого, сюрприз, тоже есть ЦОД в Красноярске).
С безопасностью данных ..как то не очень :)
Наши гипервизоры не умеют прятать оборудование, а показывают его какое оно есть на самом деле - попросите тест и посмейтесь.... .....над конкурентами :)
Ну и, заодно, почитайте уже что-то на тему облаков. Что бы хотя бы на базовом уровне понимать о чем речь.
Скажите, тексты пишутся для чего? Электронная почта и почтовые серверы - это в данном контексте не одно и то же, не? Или эта формулировка должна показать количество сервисов, которых, по сути, все года: почта и 1С.
Про 1С, кстати, представитель Искры на той же конференции прямо сказал, что это сложно и иногда не возможно. Когда один из присутствующих там сисадминов задал вопрос про 1С.
2. У них старое оборудование, устаревшее еще на момент запуска.
3. Из всех красноярских облачных сервисов самый качественный у Интелкома, у них самое лучшее оборудование в регионе.
На конференции, кстати, представитель Искры так и не ответил на вопросы
а) про оборудование.
б) когда ему указали на конкурентов, то про Оптизону он рассказал, а Интелком не упоминул. Ибо если с Оптизоной они кое как, но могу конкурировать, то с Интелкомом конкурировать они могут только пользуясь своим лобби в гос.структурах.
И на полном серьезе рассматриваются решения с использованием вечной мерзлоты.
Это даст весьма существенную экономию.
И, кстати, тарифы на электроэнергию в регионах, которые не вошли в РАО ЕЭС существенно ниже. Например, в Иркутской губернии.
http://energybase.ru/tariff/irkutsk/2015?Tariff[type_id]=1
Как-то так получилось, что мимо Чубайса проскочило, то меньше подорожало.
И денег хватает развиваться.