[ОТВЕТИТЬ]
Опции темы
23.04.2015 21:05  
lalexrus
Уважаемые коллеги!
Поскажите какое необходимо серверное оборудование для сети примерно в 50-100 магазинов для серверной части Супермага и кассового сервера УКМ4?
Есть ли острая необходимость при таком количестве магазинов выделять отдельный сервер под кассовый сервер УКМ4.
PS просто есть опыт Астор+Sis где на одном сервере (1с+SQL+Sis) все стало печально после 30 магазинов (не надолго конечно, но пока новый не купили), не хотелось бы повторить сей опыт на Супермаге (а требования у него какие-то сильно смешные :))
 
23.04.2015 22:26  
OlegON
Озвучьте, пожалуйста, сильно смешные требования Супермага? И не верьте им.
Для того, чтобы все по человечески работало, все по уму и надо сделать.
Я бы выделил два Линукс-сервака под БД Супермага и УКМ4 в ЦО, т.е. Oracle и MySQL.
Сервера обвесок (ключ, почтовый и прочие обмены) - один или пару, для ЦО опять же.
На магазине, если не про одного-двух операторов речь, УКМ и Oracle лучше разнести.
Дальше не имеет смысл писать, поскольку увидел возможный вариант, что все в терминалке в центре работать собрались? Пиши схему, что предложили и что хотите...
 
24.04.2015 08:53  
lalexrus
мы вообще рассматриваем два варианта - один из них на Асторе(sis, frontol), но по Астору обсуждать думаю смысла нет (да и тем более опыт есть 60+ магазинов).Второй вариант - супермаг+УКМ. Во многом лично я склоняюсь к супермагу из-за темы "алкоголь", т.к. судя по заявляениям они активно в тестировании например ЕГАИС участвовали. "Астор" тоже про это говорит, но я не знаю "живых" примеров (да и соственно тот факт что в Торговой сети всего один очет по алкоголю говорит о многом), по супермагу у нас есть отзывы наших партнеров.
По железу.У Супермагов в табличке написано Core i5, я собственно почему и сомневаюсь, как туда уместить неуместимое :)
Собственно я примерно так предполагаю (у нас сейчас IBM Flex и 3 ноды в нем - они на "опт" работают, их не трогаем):
- 1 нода x240 2xXeon 64GB ram SAS raid 1 + SSD cache БД Супермаг
- 1 нода x240 2xXeon 64GB ram SAS raid 1 + SSD cache УКМ4 кассовый сервер
- 1 нода x240 1xXeon 32GB ram SAS raid 1 терминалки для магазинов
- 1 нода V7000
по терминалкам - возможно будет нода попроще, к сожалению сток еще не прислали у поставщика, поэтому "то что есть"
почта и все остальное (ну кроме ключей конечно) и так крутится в существующей инфраструктуре не вижу причин почему это надо втыкать еще кудато
если будет V7000 то на нодах для Супермага и УКМ4 SSD кеширования не будет (т.е. только стандартная подсистема с двумя SAS hdd и встроенный LSI SAS)

предполагается такой вариант:
Офис и магазины работают в супермаге через rdp, в магазинах стоит только РМК УКМ4 и РМ заведующей (винда/linux - не суть важно)
В будущем - отдельный девайс для транспорта ЕГАИС. РМ заведующей и транспорт егаис будут на одной платформе - intel NUC.
Сеть будет строиться на оборудовании mikrotik, vpn - openvpn с авторизацией по сертификатам.
По ТСД предполагается - один ТСД на магазин (с лицензией супермаг мобайл) + несколько ТСД для команды ревизоров ("запускающей" команды, тоже с лицензиями супермаг мобайл).
Есть один момент - у нас в сети есть магазины "наши", есть магазины "под лицензией" (т.е. они не совсем наши, а только работают под нашей лицензией) - для таких магазинов не предполагается наличие ТСД и РМ заведующей, если конечно "хозяин" такого магазина не пожелает потратиться.

На сегодняший день - 11 магазинов работает (не автоматизированных конечно), до конца года есть план в 50 магазинов (скорее всего это почти реальная цифра, т.к. все 11 магазинов - это 1 квартал). собственно вот это все хозяйство и есть необходимость автоматизировать.
 
24.04.2015 09:57  
OlegON
Это все же форум, поэтому вопросы лучше вываливать дозированно, поскольку транспаранты никто читать не будет, а отвечать на них без каши трудно.
Попробую последовательно.

Во-первых, табличек по Супермагу достаточно много. Где именно вписан i5 не понятно. Для одиночного магазина или рабочей станции i5 может хватить, вопрос больше памяти и дисков.
Во-вторых, БД и файловый сервер различаются по требованиям к I/O, поэтому SSD-кеш должен быть управляемым, как, например, на Exadata, а не так, чтобы просто в довесок к носителю. Опять же, для базы RAID1 маловат, особенно если всего два винта, как написано далее, если это не перефразированная 10ка. Не указали, сколько пользователей будет в базе одновременно.

Суть работы базы данных - чтение большого количества информации с диска и кеширование ее в памяти. Если предполагаете, что 100 пользователей удовольствуются двумя винтами... Разочарую, думаю, что если они одновременно работать будут, то винтов должен быть десяток на любой БД. Аналитику меньшее количество не потянет.

Что мне кажется вторым заблуждением - расчет на работу по RDP. Уж больно ненадежные каналы связи в этом мире...
 
24.04.2015 10:03  
baggio
Вам нужно попробовать завести СМ+ под РДП...
дело в том что "официально" такая схема не поддерживается...
отсюда несколько нюансов...
1. Настройки оборудования храняться в реестре "для всех пользователей" поэтому:
А) нельзя одному пользователю повесить сканер на сом1 второму на сом2... настройки перебъются...
б) нельзя тоже самое с портами сделать например с принтером этикеток...
в) нельзя использовать разные по типу ТСД
г) нельзя использовать разные по типам а значит языкам принтеры этикеток...
д) работать это все разных подсетях будет только если у весов возможно указание шлюза, а значит это только диджи...

могут быть еще проблемы которые я сразу не вижу...
 
24.04.2015 10:24  
lalexrus
Цитата:
Сообщение от baggio
Вам нужно попробовать завести СМ+ под РДП...
дело в том что "официально" такая схема не поддерживается...
отсюда несколько нюансов...
странно, мне утверждают сотрудники Сервис плюс обратное....
 
24.04.2015 10:31  
lalexrus
Цитата:
Сообщение от OlegON
Разочарую, думаю, что если они одновременно работать будут, то винтов должен быть десяток на любой БД. Аналитику меньшее количество не потянет.

Что мне кажется вторым заблуждением - расчет на работу по RDP. Уж больно ненадежные каналы связи в этом мире...
по винтам, вообще планируется V7000 (собственно все зависит от финансирования), все остальное запасной вариант до момента когда дадут на нее денег (тем более что 100 пользователей/магазинов прямо завтра не появится).

На счет каналов связи и rdp не очень понял. Сейчас наблюдаю картину - 7 дней без обрывов, и то перегружали маршрутизатор, т.е. не все так плохо как кажется (хотя два года назад я бы с вами согласился)

PS кстати проясните вопрос по подсетям.
 
24.04.2015 10:31  
baggio
возможно чтото поменялось...
1. попросите посьменное подтверждение, это раз...
2. Уточните можно ли для каждого из пользователей на РДП сервере в СМ+ настроить оборудование.... на свои порты... и т.д.
 
24.04.2015 10:38  
baggio
Цитата:
Сообщение от lalexrus
PS кстати проясните вопрос по подсетям.
э... ну как бы так сказать...
1. Вы не указали оборудование которое хотите использовать в магазинах... это раз... у Вас весы вообще есть? а то может вы сантехникой торгуете и вам оно не надо...
2. Если у вас есть весы... попробуйте прогрузить весы в подсети 192.168.200.1 из подсети скажем 192.168.1.1 где будет находится сервер РДП... если у вас магазины и сервер РДП будут находиться в одной подсети я проблем не набдлюдаю, а вот если в разных...
3. Вам нужно перестать слушать сотрудников С+ и вообще когото... а прото взять и попробовать собрать тестовый стенд... проверить все оборудование и вообще схему... а потом уже думать какое оборудование и в каких маштабах закупать...
мне кажется вы пошли с конца... убедитесь что схема которую вы строите рабочаяя... а потом уже миллионы на железки выбрасывайте...
но это моё ИМХО...
 
24.04.2015 11:10  
Dim
мои 5 копеек... какая бы связь устойчивая ни была, но если какие-нибудь строители-коммунальщики порвут кабель провайдера и магазин на неделю останется без связи с рдп, то ни прогрузитьь кассы-весы, ни поменять цены в магазине вы не сможете... а если восстановление кабеля займет неделю?
 
 


Опции темы



Часовой пояс GMT +3, время: 18:35.

Все в прочитанное - Календарь - RSS - - Карта - Вверх 👫 Яндекс.Метрика
Форум сделан на основе vBulletin®
Copyright ©2000 - 2016, Jelsoft Enterprises Ltd. Перевод: zCarot и OlegON
В случае заимствования информации гипертекстовая индексируемая ссылка на Форум обязательна.