Включили сервер, закрыли маркет в жите. Зачем жить?
Донат На хостинг |
ISK за переводы до 75kk за 1000зн. |
Хроники EVE Сборник |
Новичкам Полезная информация |
Ранний расширенный даунтайм в понедельник, 29 февраля
#42
Отправлено 29 February 2016 - 23:06
Включили сервер, закрыли маркет в жите. Зачем жить?
Не только в жите.
Рынок региона Heimatar* закрыт комиссией SCC до специального уведомления, на время проверки поступивших сведений о торговых нарушениях. Повторите попытку завтра, или используйте рынок другого региона.
Ну хоть в метро рядом работает.
Мне нравится ева за то, что тут банально красиво.
#43
Отправлено 29 February 2016 - 23:11
Рынок региона Heimatar* закрыт комиссией SCC до специального уведомления, на время проверки поступивших сведений о торговых нарушениях. Повторите попытку завтра, или используйте рынок другого региона.
Будет неплохо если они обыграют этот день в лоре.
В мире победившего капитализма всего два всадника апокалипсиса - Глупость и Жадность. Остальных оптимизировали.
Чтобы попасть в рай верующему надо умереть. Атеисту - выжить.
#46
Отправлено 01 March 2016 - 13:49
Зашибись исландские рукожопы железо обновили Есть же простое правило: работает - не трогай!
Есть еще одно правило ставить вначале на тестовых серверах, протестировать там все оборудования. Искусственно заполнить сервер, искусственно проверить все параметры, рынок,миссии, гейты, инкрушены и т.д И только потом ставить на основной сервак.
Скорость нужна, а поспешность вредна. (С) Суворов.
#47
Отправлено 01 March 2016 - 14:06
Есть еще одно правило ставить вначале на тестовых серверах, протестировать там все оборудования. Искусственно заполнить сервер, искусственно проверить все параметры, рынок,миссии, гейты, инкрушены и т.д И только потом ставить на основной сервак.
Ты реально думаешь, что этого не делали?
В мире победившего капитализма всего два всадника апокалипсиса - Глупость и Жадность. Остальных оптимизировали.
Чтобы попасть в рай верующему надо умереть. Атеисту - выжить.
#48
Отправлено 01 March 2016 - 14:27
Ты реально думаешь, что этого не делали?
Почти
После расширенного ДТ они не вернули у БД время начала ДТ, при этом вернули его на самом сервере.
Из-за чего БД ушла в оффлайн на 3 часа раньше, а сервер - нет, поэтому клиент какое-то время ещё "работал", тупо возвращая ошибки на любое действие
Сообщение отредактировал Disconnected: 01 March 2016 - 14:28
#50
Отправлено 01 March 2016 - 17:34
Есть еще одно правило ставить вначале на тестовых серверах, протестировать там все оборудования. Искусственно заполнить сервер, искусственно проверить все параметры, рынок,миссии, гейты, инкрушены и т.д И только потом ставить на основной сервак.
"Какие мы оптимисты"
Я ещё одного проекта такого масштаба не знаю, где тестовая база соответствовала бы боевой на 100%.
Ты еда, твое место на кб, ты летаешь в долг на чужих исках
#51
Отправлено 01 March 2016 - 17:44
"Какие мы оптимисты"
Я ещё одного проекта такого масштаба не знаю, где тестовая база соответствовала бы боевой на 100%.
Да забей, мамкины программисты.
Я вот работаю в компании с 50к+ сотрудников. У нас есть продакшн БД, Бета и Альфа. Но при этом бета раза в 3 медленнее, а альфа раз в 6. Поэтому проверить полностью всю логику, эмулируя полную нагрузку - невозможно. А содержать 3! инфраструктуры только лишь для тестирования и платить кучу быбла за лицензии, электричество и обслуживание (в четырех датацентрах ОГА) это дибилизм.
у меня стаж игры с 2009 года я летал почти на всем что есть в еве, включая титаны на тесте.
#52
Отправлено 01 March 2016 - 19:21
Я вот работаю в компании с 50к+ сотрудников. У нас есть продакшн БД, Бета и Альфа. Но при этом бета раза в 3 медленнее, а альфа раз в 6. Поэтому проверить полностью всю логику, эмулируя полную нагрузку - невозможно. А содержать 3! инфраструктуры только лишь для тестирования и платить кучу быбла за лицензии, электричество и обслуживание (в четырех датацентрах ОГА) это дибилизм.
Экий вы, батенька, категоричный. Лично принимал участие в творении ЦОДа, где тестовая зона соответствовала боевой вплоть до версий "биосов" на серверах и прошивок на коммутаторах. Ибо Воистену Критические Задачи.
Не сожалей о том что было, не думай о том что могло быть.
#53
Отправлено 01 March 2016 - 21:44
А в случае ВНЕЗАПНОГО падения боевого кластера тестовый становился боевым? Ну так Воистену Критические Задачи обычно стоят Воистину Критических Денег, поэтому такую фигню можно себе позволить, а у всяких там CCP таких денег ни фига нет.
#55
Отправлено 02 March 2016 - 14:03
А в случае ВНЕЗАПНОГО падения боевого кластера тестовый становился боевым? Ну так Воистену Критические Задачи обычно стоят Воистину Критических Денег, поэтому такую фигню можно себе позволить, а у всяких там CCP таких денег ни фига нет.
Я вижу только пару Критических задач - Банки и Военные.
1) Банки. Они возьмут деньги с клиентов или в случае всяких Visa - процент с транзакций. Но даже там я не уверен, что инфраструктуры воспроизведены полностью.
2) Военные. Тут может быть, но вот одно дело 10 серверов воспроизвести, другое дело 200.
А вот например на атомных станциях нет никаких тренажеров, которые ПОЛНОСТЬЮ реплицируют оборудование АЭС, более того, даже в рамках одинаковых проектов на АЭС бывает разное оборудование.
у меня стаж игры с 2009 года я летал почти на всем что есть в еве, включая титаны на тесте.
#56
Отправлено 02 March 2016 - 15:44
А в случае ВНЕЗАПНОГО падения боевого кластера тестовый становился боевым? Ну так Воистену Критические Задачи обычно стоят Воистину Критических Денег, поэтому такую фигню можно себе позволить, а у всяких там CCP таких денег ни фига нет.
Кластеры, репликация, резервирование, зеркалирование, балансировка нагрузки... Хотя о чем это я, ддос логин-сервера кладет всю систему в целом, причем и игру и сайты. При таком расладе вспоминать о том, что нормальный класер при падении нескольких нод должен балансировать нагрузку между другими, а падать на пол дня полностью #пицца_для_ццп это нонсенс, даже и вспоминать смысла нет уже. Набили в стоечку юнитов, собрали аналог логики одиночного сервера и жалуются, что он не отказоустойчивый вышел. Посмотреть на мировой опыт четырхдевяточных ЦОДов это не про них.
Мне нравится ева за то, что тут банально красиво.
#57
Отправлено 02 March 2016 - 16:06
Кластеры, репликация, резервирование, зеркалирование, балансировка нагрузки... Хотя о чем это я, ддос логин-сервера кладет всю систему в целом, причем и игру и сайты. При таком расладе вспоминать о том, что нормальный класер при падении нескольких нод должен балансировать нагрузку между другими, а падать на пол дня полностью #пицца_для_ццп это нонсенс, даже и вспоминать смысла нет уже. Набили в стоечку юнитов, собрали аналог логики одиночного сервера и жалуются, что он не отказоустойчивый вышел. Посмотреть на мировой опыт четырхдевяточных ЦОДов это не про них.
Яснопонятно.
Делаем все очень просто.
1) Берем парочку датацентров разнесенных по географии (а вдруг там пожары/наводнения)
2) Подводим по паре разных силовых кабелей от разных веток (а вдруг обесточивание)
3) Проводим три канала интернета от разных провайдеров (ну и чтоб магистральные каналы были разные)
4) Ставим по нескольку инстансов серверов для балансировки нагрузки.
5) Настраиваем лайв мигрейшн между серверами в разных датацентрах чтобы при падении бесшовно все переезжало на другой.
6) Считаем, получаем что подписка будет стоить.... Ну скажем 200 баксов в месяц. Повышаем подписку до 200, онлайн падает до пары тысяч человек, наслаждаемся отказоустойчивостью в четыре девятки.
Сколько раз нужно повторять, что за пределами мира розовых Поней есть такое слово как БЮДЖЕТ, и никто не ставит делать пяток инстансов логин сервера и балансировку, если 364 дня в году запросы обслуживаются одним сервером загруженным на 25%.
На случай ддоса должны быть иные меры, как черный список ip-адресов, но никак не удорожание инфраструктуры в 10 раз.
у меня стаж игры с 2009 года я летал почти на всем что есть в еве, включая титаны на тесте.
#58
Отправлено 02 March 2016 - 18:11
Яснопонятно.
Сколько раз нужно повторять, что за пределами мира розовых Поней есть такое слово как БЮДЖЕТ, и никто не ставит делать пяток инстансов логин сервера и балансировку, если 364 дня в году запросы обслуживаются одним сервером загруженным на 25%.
Давай я по другому напишу.
Вот ты решил для киношек с торентов скаченых себе место на компе поиметь, например 6тб. Ну вот надо тебе 6 тб, а не 5 и не 10, ты прикинул и посчитал это, меньший объям слишком мало, больший слишком дорого сейчас тебе.
У тебя есть 2 пути.
1 - Пойти в магазин и купить 1 х 6 тб диск, вставить его в комп и радоваться.
2 - Пойти в магазин, купить 4 х 2 тб диска за те же бабки если не дешевле. И если вдруг у тебя мать не поддерживает рейды, купить простенький и дешевый по сравнению с дисками raid5 контроллер. Вставить в комп всё это и поднять, собственно raid5 на 6 тб.
Если у тебя в первом случае сдохнет диск, ты потеряешь всю информацию. Если у тебя во втором случае сдохнет диск, ты заметив это не сразу, пойдешь, купиш еще один 2 тб, заменишь и восстановиш raid. Если сдохнет контроллер, то там чуть сложнее и больше думать изначально надо, но итог тот же, ты восстановишь рейд и не потеряешь информацию.
В обоих случаях бюджеты равные примерно, а результат при проблемах различается кардинально. Это вопрос архитектуры.
Так вот, архитектура ццп судя по той проблеме и по участившимся в последнее время сттьям об их железе идет по первому принципу, а чтоб было четыре девятки надо идти по второму. И бюджет тут не при чем, доводить все до маразма рассказами про кучи дц, каналов и прочего тоже не надо тоже. Когда у них падает система из-за того что стоит один логин-сервер падающий от пинка легкого, или из-за того, что от эррора на старте 5-10% рабочих нод вместо старта системы с потерей этих 5-10% мощности система не стартует вообще это чистый косяк архитектуры системы.
Мне нравится ева за то, что тут банально красиво.
#59
Отправлено 02 March 2016 - 19:27
Давай я по другому напишу.
Вот ты решил для киношек с торентов скаченых себе место на компе поиметь, например 6тб. Ну вот надо тебе 6 тб, а не 5 и не 10, ты прикинул и посчитал это, меньший объям слишком мало, больший слишком дорого сейчас тебе.
У тебя есть 2 пути.
1 - Пойти в магазин и купить 1 х 6 тб диск, вставить его в комп и радоваться.
2 - Пойти в магазин, купить 4 х 2 тб диска за те же бабки если не дешевле. И если вдруг у тебя мать не поддерживает рейды, купить простенький и дешевый по сравнению с дисками raid5 контроллер. Вставить в комп всё это и поднять, собственно raid5 на 6 тб.
Если у тебя в первом случае сдохнет диск, ты потеряешь всю информацию. Если у тебя во втором случае сдохнет диск, ты заметив это не сразу, пойдешь, купиш еще один 2 тб, заменишь и восстановиш raid. Если сдохнет контроллер, то там чуть сложнее и больше думать изначально надо, но итог тот же, ты восстановишь рейд и не потеряешь информацию.
В обоих случаях бюджеты равные примерно, а результат при проблемах различается кардинально. Это вопрос архитектуры.
Так вот, архитектура ццп судя по той проблеме и по участившимся в последнее время сттьям об их железе идет по первому принципу, а чтоб было четыре девятки надо идти по второму. И бюджет тут не при чем, доводить все до маразма рассказами про кучи дц, каналов и прочего тоже не надо тоже. Когда у них падает система из-за того что стоит один логин-сервер падающий от пинка легкого, или из-за того, что от эррора на старте 5-10% рабочих нод вместо старта системы с потерей этих 5-10% мощности система не стартует вообще это чистый косяк архитектуры системы.
К сожалению в мире ентерпрайзного серверного железа и софта все не так просто, как на твоем локалхосте. Там ты платишь за какждый чих и даже попытку чихнуть.
IBM power сервер - у тебя может быть в сервере 128 процессоров и 8 теров памяти установлено, но использовать ты можешь только столько залицензировано. Т.е. у тебя физически железо есть, вот оно стоит, а юзать ты его можешь только когда за него заплочено за право включить. Хочешь миграцию ноды на резеврное железо на лету? Бабло на лицензию в студию!
HP 3PAR сторадж. У тебя есть 8 полок под диски, забитые на половину. Можешь пойти купить еще винтов и досустанавливать? Хрен, сначала заплати за лицензии на колличество дисков. Хочешь включить возможность на ходу смигрировать данные на другой сторадж? Извольте купить лицензию. Хочешь отказоустойчиво и прозрачно пережить отказ стораджа с non-disruptive переключинием на резервный? Еще бабла пожалуйста.
Про такие мелочи как колличество квалифицированного персонала который может заставить все это работать я скромно промолчу. Опять же все на работу в 3 смены 24/7. Сапорт у вендоров софта и железа тоже расширеный, 24/7 со временем реации и доставки запчастей в несколько часов.
По кондиционированию и электропитанию я подробно не в теме, но знаю, что там тоже эпик с отказоустойчивостью на таком уровне.
Софт. Оракловая база, лицензия за каждый процессор. Надо резервный сервер? Пожалуйте удвойте количество лицензий. Хочешь включить технологию Database In-Memory? лицензию конечно! Кластерная распределенная файловая система? Отстегни за каждый процессор на каждой ноде!
Надо мониторить всю эту радость на предмет производительности и предсказания отказов? Конечно же для этого есть специальный софт. За твои деньги... С лицензией на каждую единицу софта\железа которые ты собрался мониторить...
И т.д и т.п. и п.р. Каждая девяточка в доступности цода, наращивает цену разы. Это оправдано для биржи или банка с миллиардными транзакциями. Но никак не для игрушки.
Сообщение отредактировал owlmind: 02 March 2016 - 19:40
2 посетителей читают тему
0 members, 2 guests, 0 anonymous users