Далее, готовим систему. Для RAC требуется grid, который находится в 3 архиве дистрибутивов 11.2.0.4
В самом начале рекомендую проверить синхронизацию времени и часовой пояс.
Обратите внимание, что среди опций ntpd в /etc/sysconfig/ntpd должна быть -x, инсталлятор это проверяет.
Его рекомендуется ставить под отдельным пользователем, которого я, не мудрствуя, называю grid.
Установка Oracle 11g на Oracle Linux содержит перечень пакетов, которые почему-то в Oracle Linux не ставятся по умолчанию, но должны быть. Для того, чтобы можно было использовать ASM, необходимо доставить еще несколько пакетов
Код:
yum install oracleasm kmod-oracleasm oracleasm-support
и поставить пакет
Код:
rpm -ivh cvuqdisk.rpm
который лежит в самом инсталляторе в каталоге rpm. Не помешает yum update и перезагрузка.
Создаем пользователя на обеих нодах, причем с одинаковым паролем
Код:
/usr/sbin/useradd -u 1100 -g oinstall -G dba grid
passwd grid
Обращаю внимание на структуру каталогов. В зависимости от того, куда вы ставите, необходимо выделить каталог для oracle, для grid и для oraInventory (общий), соответственно, права на них должны быть вида user:oinstall и chmod -R 775.
Далее настраиваем драйвер ASM
Код:
oracleasm configure -i
в небольшом вопроснике выдаем права для grid:dba и отвечаем y на оба последующих вопроса.
Инициализируем драйвер
Если еще не успели до этого, каким-нибудь менеджером разделов вроде gdisk или fdisk необходимо создать раздел на общем для нод диске (с одной ноды, конечно). И далее - создать ASM-диск на этом разделе. У меня рейд на полке, поэтому диск один и имя устройства у него /dev/mapper/mpathcp1
Код:
oracleasm createdisk DISK1 /dev/mapper/mpathcp1
Можно сделать
чтобы увидеть, что диск появился.
на второй ноде этот диск тоже должен подхватиться, что выполняется командой
в дальнейшем при перезагрузке это будет происходить автоматом.
После этого можно запускать инсталлятор.
Собственно, в нем ничего особо интересного нет, но необходимо обратить внимание на возможность автоматически настроить доступ по ключу через SSH для обеих нод. В окошке, где добавляете ноды, слева кнопочка раскрывает мастер, где можно сначала ввести общий для пользователя пароль, нажать setup, потом test. Это обязательное условие. Дальше, если вы внимательно читали этот опус, пройдете через настройку интерфейсов и подключите диски. Обратите внимание, каким образом настроена избыточность дисков. У меня external, поскольку рейд железный, а диск один. Почему-то не диски не виделись до изменения discovery path на /dev/oracleasm/disks/, так и не поборол эту досадную неприятность. До сих пор не знаю причину. Ну и ладно, указал и указал.
Обратите внимание, что под конец надо будет выполнить скрипты из под root на обеих нодах. Вот нюанс в том, что одновременно их лучше не запускать.
После инсталляции можете проверить состояние кластера
Код:
...../grid/bin/crsctl check crs
...../grid/bin/crsctl status resource -w "TYPE co ’ora’" -t
Сами RDBMS и база ставится достаточно долгим мастером, уже под oracle. Если вы хоть раз ставили базу, то никаких вопросов у вас это не вызовет. Мастер сам определит, что под ним кластерварь, поставит все на одну ноду, скопирует на другую и заведет. Ничего дополнительно допиливать не пришлось.