★★★오라클 10g RAC_rawdevices 설치 - clusterware 설치 & 패치★★★

 

===========================================================================================================================

 

<clusterware 설치>

 

1. clusterware 디렉토리로 이동하여 runInstaller를 실행한다.

$ cd /home/oracle/pkg/clusterware

$ ./runInstaller

 

./runInstaller를 실행시키면 아래 화면이 실행된다.

▲다음 

 

▲환경변수에 입력을 해놨기때문에 자동으로 입력되어 있다. 다음을 누른다. 

 

▲경로에 db로 되어있는것을 crs 고친다. 다음을 누른다. 

 

▲모두 성공함이 뜨면 다음을 누른다.

교체 공간이 부족합니다 라는 에러가 떴었는데, SWAP 이 부족하면 이 에러가 생길 수 있다.

▼ 해결책

이미 운영 중인 시스템에서 사용하고 있는 스왑공간이 부족(그럴 이유는 없겠지만, 거의...그러나간혹 오라클설치하려니 스왑 공간이 부족하다. 괜히 늘려주고 싶다.)하여 스왑영역을 확보하기 위해서는, 파티션을 재구성하여 스왑파티션을 설정하거나 스왑파일을만드는 방법이 있습니다. 그러나, 파티션을 다시 구성하기 위해서는 여유있는파티션이 있어야 하며, 번거롭고, 많은 작업이 필요하므로, 스왑파일을 만들어서 스왑영역을 확보하는 방법에 대해 찾다가 알게 되었습니다.

256MB의 스왑파일을 만들어 보겠습니다. 먼저 스왑파일을 만들 공간을 설 정합니다.

다음과 같은 명령을 내리면 /boot 디렉토리 밑에 256MB짜리 NULL 파일이 만들어 집니다.

/dev/zero는 Null byte의 source를 뜻하며 생 성하고자 하는 swap파일의 명칭은 편의상 swapfile로 하였습니다. 

#dd if=/dev/zero of=/boot/swapfile bs=1024 count=262144  만든 파일이 스왑파일로 작동할 수 있도록 설정을 합니다. v0 옵션은 old 스 타일이고, v1은 new 스타일입니다.

#mkswap -v1 /boot/swapfile 

활성화를 시킵니다.

#swapon /boot/swapfile free명령으로 스왑영역이 늘어난 것을 확인할 수 있습니다.

#free  부팅 시 스왑공간이 활성화되게 하려면 /etc/fstab 파일에 아래 한 줄을 추가 합니다.

/boot/swapfile swap swap defaults  1  1

 

 

▲빨간 표시의 추가를 누른다. 

▲위의 사진처럼 넣어주고 확인을 누른다. 다음을 누른다. 

▲eth0만 선택하고 편집을 누른다 

▲공용을 선택하고 확인을 누른다. 다음을 누른다. 

▲위의 사진처럼 넣어주고 다음을 누른다. <= ocr디스크 설정 

▲위의 사진처럼 넣어주고 다음을 누른다. <= vote 디스크 설정 

▲설치 

▲설치도중 위와 같은 창이 뜨는데 새 터미널을 열어서 root 계정으로 전환하고

node1 - orainstRoot.sh <= 위 창의 1번에 해당

node2 - orainstRoot.sh

node1 - root.sh <= 위 창의 2번에 해당

node2 - root.sh

순서로 실행을 시킨다.

실행 후 아직 확인을 누르면 안된다. 아래의 작업을 하고 확인을 누른다.

node2 - root.sh를 실행하면 마지막 스크립트에서 vip관련 에러가 발생한다. 에러가 발생하면 node2에서 vipca를 실행한다.

 

(node 2 에서)

$ su -
# vipca
vipca를 실행하면 아래 화면이 실행된다. 

▲다음을 누른다. 

eth0만 선택하고 다음을 누른다. 

▲위 사진과 같이 vip관련 내용을 입력하고 다음을 누른다. 

▲완료를 누른다. 

▲설치가 완료되면 위 창이 뜨는데 확인을 누른다. 

▲종료를 누르고 node1에서 확인을 누르고 다음을 눌러 넘어간다 

▲모두 성공이 뜨면 다음을 누른다 

▲종료를 누른다.
===========================================================================================================================
<clusterware 패치>
1. pkg의 Disk1 디렉토리로 이동하여 runInstaller를 실행한다.
$ cd /home/oracle/pkg/Disk1
$ ./runInstaller
./runInstaller를 실행시키면 아래 화면이 실행된다. 

▲다음을 누른다. 

▲clusterware 설치 위에 패치를 덮어씌워야 하므로 clusterware 설치와 같은 경로를 넣어준다.

다음을 누른다. 

▲다음을 누른다 

▲모두 성공함이 뜨면 다음을 누른다. 

▲설치를 누른다. 

설치 종료가 되면 위와 같은 창이 뜨는데 새 터미널을 열어서 root 계정으로 전환하고

node1 - a 스크립트
node1 - b 스크립트
node2 - a 스크립트
node2 - b 스크립트
순서로 실행을 시킨다.
실행을 하고 종료를 누른다.

 

2. 제대로 되었는지 확인한다.
$ crs_stat -t 

▲이렇게 하면 clusterware 설치 & 패치가 완료되었다. 이어서 Oracle 엔진 설치 & 패치를 진행하면 된다. 

by 짱구를꼭말려 2013. 8. 23. 21:39

★★★오라클 10g RAC_rawdevices 설치 - 설치전 작업★★★  

 

 

1. ifconfig로 NAT로 잡힌 eth0과 eth1의 IP를 확인해서 종이에 적어둔다.

 

2. netstat -nr로 Gateway주소를 확인 후 종이에 적어둔다.

 

3. neat명령어로 네트워크 설정창을 열어 eth0과 eth1의 IP를 수동으로 바꿔 1번작업에서 적어둔 IP를 수동 IP에 넣는다.

 

▼4. DNS에서 호스트명과 기본 DNS를 아래 사진과 같이 넣는다. 

5. 설정이 끝나면 네트워크를 재시작해서 적용이 되게 한다.

# /etc/init.d/network restart

 

6. 핑이 가는지 확인한다.
# ping 168.126.63.1

 

▼7. 아래 사진과 같이 불필요한 서비스 데몬을 종료시킨다.

▼8. /etc/hosts파일에 아래 사진의 내용처럼 IP를 추가한다. 중요한것은 아래사진의 빨간 네모 자리의 rac1이름을 꼭 지워줘야 한다.

9. sysctl.conf파일에 아래 사진의 내용을 추가한다.

# vi /etc/sysctl.conf

kernel.shmall = 2097152
kernel.shmmax = 2147483648
kernel.shmmni = 4096
kernel.sem = 250 32000 100 128
fs.file-max = 65536
net.ipv4.ip_local_port_range = 1024 65000
net.core.rmem_default = 4194304
net.core.rmem_max = 4194304
net.core.wmem_default = 262144
net.core.wmem_max = 262144

 

▼10. limits.conf파일에 아래 사진의 내용을 추가한다.
# vi /etc/security/limits.conf

oracle soft nproc 2047
oracle hard nproc16384
oracle soft nofile 1024
oracle hard nofile65536

 

11. login파일에 내용을 추가한다.
# vi /etc/pam.d/login
session required pam_limits.so
12. modprobe.conf파일에 내용을 추가한다.
# vi /etc/modprobe.conf
options hangcheck-timer hangcheck_tick=30 hangcheck_margin=180
13. 시스템 상태를 확인한다. <= 커널기반의 타이머를 사용하여 시스템 태스크 스케쥴러에 발생하는 딜레이를 정기적으로
# modprobe -v hangcheck-timer 점검하는 방식을 사용
14. rc.local파일에 내용을 추가한다.
# vi /etc/rc.local
/sbin/modprobe hangcheck-timer
rdate -s 203.248.240.140
15. 아래 사진의 rpm이 설치되었는지 확인한다.

16. id가 5000인 dba그룹의 oracle 사용자를 만든다.
# groupadd -g 5000 dba
# useradd -g dba oracle
# passwd oracle (비번은 본인이 알아서)

 

17. .bash_profile파일에 내용을 추가한다.
# vi .bash_profile
PATH=$PATH:$HOME/bin:/home/oracle/product/10g/crs/bin

 

▼18. 오라클 계정으로 .bash_profile파일에 아래 사진의 내용을 추가한다.
# su - oracle
# vi .bash_profile

export EDITOR=vi
export LD_ASSUME_KERNEL=2.4.19
export ORACLE_BASE=/home/oracle
export ORA_CRS_HOME=$ORACLE_BASE/product/10g/crs
export ORACLE_HOME=$ORACLE_BASE/product/10g/db
export ORACLE_SID=rac1
export LANG=ko_KR.eucKR
export ORACLE_TERM=xterm
export NLS_LANG=AMERICAN_AMERICA.KO16KSC5601
export ORA_NLS33=$ORACLE_HOME/ocommon/nls/admin/data
export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib:/usr/local/lib
export PATH=$PATH:$ORACLE_HOME/bin:/$ORA_CRS_HOME/bin
export CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib

 

19. root계정으로 돌아와 추가해줬던 하드의 파티션을 나눠준다. 빨강 화살표는 그냥 엔터치면 된다.
$ exit
# fdisk /dev/sdb

위 사진에서 8e는 LVM을 위한 설정이다.

 

20. 나머지 2개의 하드도 위와 같은 방식으로 파티션을 나눠준다.

 

21. 추가한 하드의 물리적 볼륨을 생성하고 확인한다.
# pvcreate /dev/sdb /dev/sdc /dev/sdd
# pvdisplay

 

22. 볼륨그룹을 생성하고 확인한다.
# vgcreate rac /dev/sdb /dev/sdc /dev/sdd
# vgdisplay

 

23. 볼륨그룹을 oracle에서 사용될 파일로 나눠 생성하고 확인한다.
lvcreate --name ocr1 --size 300 rac && lvcreate --name ocr2 --size 300 rac && lvcreate --name vote1 --size 300 rac && lvcreate --name vote2 --size 300 rac && lvcreate --name vote3 --size 300 rac && lvcreate --name system --size 600 rac && lvcreate --name sysaux --size 300 rac && lvcreate --name undotbs1 --size 200 rac && lvcreate --name undotbs2 --size 200 rac && lvcreate --name users --size 10 rac && lvcreate --name temp --size 100 rac && lvcreate --name control01 --size 100 rac && lvcreate --name control02 --size 100 rac && lvcreate --name control03 --size 100 rac && lvcreate --name redo01_a --size 50 rac && lvcreate --name redo01_b --size 50 rac && lvcreate --name redo02_a --size 50 rac && lvcreate --name redo02_b --size 50 rac && lvcreate --name redo03_a --size 50 rac && lvcreate --name redo03_b --size 50 rac && lvcreate --name redo04_a --size 50 rac && lvcreate --name redo04_b --size 50 rac && lvcreate --name spfile --size 50 rac (복사하세요)
# lvcreate --name ocr1 --size 300 rac
# lvcreate --name ocr2 --size 300 rac
# lvcreate --name vote1 --size 300 rac
# lvcreate --name vote2 --size 300 rac
# lvcreate --name vote3 --size 300 rac
# lvcreate --name system --size 600 rac
# lvcreate --name sysaux --size 300 rac
# lvcreate --name undotbs1 --size 200 rac
# lvcreate --name undotbs2 --size 200 rac
# lvcreate --name users --size 10 rac
# lvcreate --name temp --size 100 rac
# lvcreate --name control01 --size 100 rac
# lvcreate --name control02 --size 100 rac
# lvcreate --name control03 --size 100 rac
# lvcreate --name redo01_a --size 50 rac
# lvcreate --name redo01_b --size 50 rac
# lvcreate --name redo02_a --size 50 rac
# lvcreate --name redo02_b --size 50 rac
# lvcreate --name redo03_a --size 50 rac
# lvcreate --name redo03_b --size 50 rac
# lvcreate --name redo04_a --size 50 rac
# lvcreate --name redo04_b --size 50 rac
# lvcreate --name spfile --size 50 rac
# lvscan

 

24. rawdevices파일에 아래 사진의 내용을 추가한다. <= rawdevice는 OS가 하드디스크 관리를 안하고 어플리케이션이 관리를 한다.
# vi /etc/sysconfig/rawdevices 여기서 어플리케이션은 asm프로그램을 말한다. 여기서 추가내용은 내가 어떤
하드디스크를 rawdevices로 쓰겠다고 rawdevices 정보를 적어준것이다.
이 파일을 커널이 보고 적혀있는 디스크가 rawdevices임을 알고 신경을 안쓴다.

/dev/raw/raw1 /dev/rac/ocr1
/dev/raw/raw2 /dev/rac/ocr2
/dev/raw/raw3 /dev/rac/vote1
/dev/raw/raw4 /dev/rac/vote2
/dev/raw/raw5 /dev/rac/vote3
/dev/raw/raw6 /dev/rac/system
/dev/raw/raw7 /dev/rac/sysaux
/dev/raw/raw8 /dev/rac/undotbs1
/dev/raw/raw9 /dev/rac/undotbs2
/dev/raw/raw10 /dev/rac/users
/dev/raw/raw11 /dev/rac/temp
/dev/raw/raw12 /dev/rac/control01
/dev/raw/raw13 /dev/rac/control02
/dev/raw/raw14 /dev/rac/control03
/dev/raw/raw15 /dev/rac/redo01_a
/dev/raw/raw16 /dev/rac/redo01_b
/dev/raw/raw17 /dev/rac/redo02_a
/dev/raw/raw18 /dev/rac/redo02_b
/dev/raw/raw19 /dev/rac/redo03_a
/dev/raw/raw20 /dev/rac/redo03_b
/dev/raw/raw21 /dev/rac/redo04_a
/dev/raw/raw22 /dev/rac/redo04_b
/dev/raw/raw23 /dev/rac/spfile
이거 그대로 써서 추가해준다.

 


25. rawdevices를 재시작하여 추가한 내용을 적용시킨다.
# /etc/init.d/rawdevices restart

 

26. rawdevices의 권한을 바꿔준다. 113번줄을 수정하고 114번줄에 추가한다. <= asm을 오라클 사용자가 사용하기 때문에 권한을
# vi /etc/udev/permissions.d/50-udev.permissions oracle로 바꿔준다.
112번줄 ram*:root:disk:0660
113번줄 #raw/*:root:disk:0660
114번줄 raw/*:oracle:dba:0660

 

27. rawdevices를 다시 재시작한다.
# /etc/init.d/rawdevices restart

 

28. oracle, dba가 맞는지 퍼미션을 확인한다.
# ls -l /dev/raw

 

29. node1세팅이 완료되었다. 리눅스 종료 후 node2를 세팅한다.
# init 0

 

▼30. rac2 폴더를 생성 후 rac1.vmdk와 rac1.vmx파일을 rac2에 복사한다.

▼31. VMware에 복사한 가상머신을 추가하고 Edit virtual machine settings를 눌러 가상머신 이름을 rac2로 바꾸고 부팅한다.

 

32. 만약 추가한 하드의 저장을 rac1과 같은 폴더에 했다면 하드를 눌렀을때 아래 사진과 같은 창이 뜬다. 이럴경우 추가했던 하드 3개를

아래 remove로 모두 지운다. 그리고 아래의 사진과 같은 방식으로 다시 추가한다.

Add를 누른다.

▲Hard Disk를 선택 후 Next를 누른다.

▲Use an existing virtual disk를 선택하고 Next를 누른다.

▲Independent를 체크하고 Browse를 누른다

▲rac1에 있는 disk1폴더를 선택해서 추가한다. 나머지 하드도 똑같은 방식으로 추가한다.

 

▼33. 부팅을 하면 아래 사진의 창이 뜨는데 I copied it을 눌러야 한다.

파란색 화면에 회색 창이 뜨면 아무키나 눌러준다. 안눌러주면 그냥 지나가 버린다.

네트웍 카드 장치 삭제를 2번 해준다.

 

▲동적 IP주소 자동설정 사용에 체크하고 확인한다.

 

▼34. 부팅이 되면 root계정으로 로그인하고 터미널창에서 neat를 쳐서 수동IP로 설정해준다.
node2(rac2)의 IP는 node1의 hosts파일에 적어놓았던 IP를 넣어준다. node1 IP에 1씩 더해준것.

 

35. DNS에서 호스트명과 기본 DNS를 아래 사진과 같이 넣는다.

 

36. oracle 계정으로 바꿔서 .bash_profile의 ORACLE_SID=2로 수정한다.
# su - oracle
$ vi .bash_profile
export ORACLE_SID = rac2

 

37. 재부팅을 하고 node1도 부팅을 시킨다.
$ exit
# reboot

 

38
. oracle계정으로 로그인하고 _equivalence 설정을 한다. <= 이 작업은 rac1과 rac2가 서로 접속을 하는데 암호를 안묻도록 설정을
하는것이다. 암호가 들어있는 파일을 각 노드에서 서로의 암호를
가지고 있어서 암호를 안물어도 암호 파일을 보고 맞다는것을 안다.
node1, node2모두 실행한다.

▲빨강 화살표 부분은 그냥 엔터를 치고 넘어가면 된다.

 

39.
node1에서만 아래 작업을 실행한다.
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
$ ssh rac2 cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
         암호치는거 한번 나온다.
$ ssh rac2 cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
         암호묻는거 한번 나온다.
$ scp ~/.ssh/authorized_keys rac2:~/.ssh/authorized_keys

 

40. 암호를 묻지 않는지
node1, node2 모두 점검한다. 처음 한번만 암호를 묻는다.
$ ssh rac1 date
$ ssh rac1-priv date
$ ssh rac2 date
$ ssh rac2-priv date

 

▼41. node1의 oracle 계정에 pkg 디렉토리를 만들어 설치에 필요한 clusterware, database, 패치파일을 WinSCP프로그램으로 옮긴다.
node2에는 pkg 디렉토리에10201_clusterware_linux32.zip파일만 옮긴다.

42. pkg디렉토리로 이동하여 압축을 풀어준다. node2의 clusterware압축도 풀어준다.
$ cd pkg
$ unzip 10201_clusterware_linux32.zip
$ unzip 10201_database_linux32.zip
$ unzip p6810189_10204_Linux-x86.zip

 

43. 압축 풀어준 clusterware의 rpm 디렉토리로 이동하여 rpm을 설치한다.
node1, node2 모두 설치한다.
$ su -
# cd /home/oracle/pkg/clusterware/rpm
# export CVUQDISK_GRP=dba
# rpm -Uvh cvuqdisk-1.0.1-1.rpm

 

44. oracle 계정으로 돌아와 clusterware의 cluvfy 디렉토리로 이동하여 아래의 내용을 실행한다. node1만 한다.
# exit
$ cd /home/oracle/pkg/clusterware/cluvfy
$ ./runcluvfy.sh stage -pre crsinst -n rac1,rac2 -verbose <= vip, oinstall, rpm 관련 에러 무시
$ ./runcluvfy.sh stage -post hwos -n rac1,rac2 -verbose <= vip 관련 에러 무시

 

이렇게 하면 설치전 작업을 끝마칠 수 있다. 이어서 바로 clusterware설치를 하면 된다.
by 짱구를꼭말려 2013. 8. 23. 16:46

★★★오라클 10g RAC_rawdevices 설치 - 리눅스 설치★★★

RHEL4-10g Rawdevice

 

1. VMware 세팅

▲Create a New Virtual Machine을 선택한다

 

▲Custom을 선택하고 Next를 누른다.

 

 

▲그대로 Next를 누른다

 

 

▲3번째 OS later를 선택하고 Next를 누른다.

 

▲리눅스 Red Hat Enterprise Linux4를 선택하고 Next를 누른다.

 

▲Name은 rac1으로 Location은 원하는 위치에 자신이 정하고 Next를 누른다.

 

▲그대로 Next를 누른다.

 

▲메모리는 컴퓨터 메모리의 절반정도 주고 Next를 누른다

 

▲두번째 자동으로 IP를 잡아주는 NAT를 선택하고 Next를 누른다.

 

▲그대로 Next를 누른다

 

▲Create a new virtual disk를 선택하고 Next를 누른다.

 

▲그대로 Next를 누른다

 

▲하드는 20GB를 주고 single file을 선택 후 Next를 누른다.

 

▲rac1.vmdk로 고치고 Next를 누른다. (다른이름이어도 상관은 없다.)

 

▲Finish를 누른다.

 

▲Edit virtual machine settings을 누른다.

 

▲Floppy, USB Controller, Sound Card등 필요없는 장치를 아래의 Remove로 제거하고 Add를 누른다.

 

▲Private망을 위한 Network Adapter를 추가하기위해 선택 후 Next를 누른다.

 

▲Host-only를 선택후 Finish를 누른다.

 

▲이번엔 하드를 추가하기 위해 Hard Disk를 선택 후 Next를 누른다.

 

▲Create a new virtual disk를 선택 후 Next를 누른다.

 

▲이번엔 SCSI 밑에 있는 Independent를 체크 한 다음 Next를 누른다.

 

용량은 10GB를 주고 Allocate all disk space now를 꼭 체크해줘야 한다. 체크를 안해주면 데이터베이스 생성 시 에러가 발생한다.

single file을 선택하고 Next를 누른다.

 

▲따로 storage폴더를 만들어 storage폴더를 경로로 하여 디스크 이름을 설정하고 Next를 누른다.

(같은 폴더에 저장하면 뒷부분에서 번거롭지만 작업을 따로 해주면 되는데 실무에서는 서버를 따로 3대를 놓고 하기때문에 같은 환경처럼

따로 폴더를 만들어서 해준다.)

 

위 사진처럼 하드가 추가되면 오른쪽에 Advanced를 누른다.

 

▲Virtual device node를 SCSI 1:0으로 해주고 Independent를 체크한 뒤 OK를 누른다.

 

▲위와 같은 방식으로 나머지 하드 디스크도 추가해 준다.

 

▲3개의 하드를 추가한 뒤 리눅스에 가상디스크를 올리기위해 rac1.vmx를 메모장으로 열어 편집한다.

 

▲빨강으로 표시한 내용을 각 위치에 추가하고 저장한다.

 

▲위 사진의 CD/DVD를 선택하고 Iso Image file에 RHEL4 1번 CD를 삽입하고 OK를 누른다.

Power On을 시켜 부팅한다.

 

▲그냥 엔터를 한번 쳐주면 화면이 넘어간다.

 

▲Skip을 선택하고 엔터를 친다.

 

▲Next를 누른다.

 

▲English를 선택하고 Next를 누른다.

 

▲U.S.English를 선택하고 Next를 누른다.

▲Manually partition with Disk Druid를 선택하고 Next를 누른다.

 

▲위 사진처럼 창이 하나 뜨는데 Yes를 누르고 넘어간다.

 

▲중간에 있는 New를 누른다.

 

▲빨간 표시에 있는 하드중에서 sda만 체크하고 나머지는 다 체크를 없애준다. 그리고 / 5000으로 용량 할당해주고 OK 누른다

 

▲10g 설치 할때 swap 을 1500 으로 하면 교체 용량이 부족 하다면서 어쩌구 저쩌구 나온다

2000 하자

 

▲마지막에 있는 /home의 용량은 빨간표시에 있는 3번째 Fill to maximum allowable size를 선택한다. 나머지 전부를 뜻한다.

 

▲네트워크에서 eth0, eth1 둘다 체크를 하고 manually를 rac1으로 적은 뒤 Next를 누른다.

 

▲방화벽은 No로 선택하고 SElinux도 사용안함 Disabled를 선택한 후 Next를 누른다.

 

▲방화벽을 진짜 사용안할꺼냐는 창이 뜨는데 Proceed를 누르고 넘어간다.

 

▲Korean에 체크를 해주고 위에 기본언어를 English에서 Korean으로 바꿔준 후 Next를 누른다.

 

▲Asia/Seoul을 찾아서 선택하거나 지도에서 한국을 찾아 선택하고 Next를 누른다.

 

▲수동패키지 Customize software packages to be installed를 선택하고 Next를 누른다.

 

▲Applications탭에서 Editors를 체크하고 Graphical Internet도 체크한다

 

▲Server탭에서 Web Server와 Windows File Server의 체크를 풀어준다

 

▲Development탭은 모두 체크를 해준다.

 

▲System탭에 System Tools는 체크를 하고 Printing Support는 체크를 풀어준다.

System Tools 오른쪽에 있는 Details를 누른다.

 

▲오라클 10g에서 요구하는 rpm인 sysstat에 체크를 하고 OK를 누르고 Next로 넘어간다.

 

▲Next를 누른다

 

▲Continue를 누른다. CD2,3,4로 바꿔주면서 설치한다.

 

▲완료되면 Reboot를 누른다.

 

▲다음을 누른다.

 

▲동의를 선택하고 다음을 누른다.

 

▲컴퓨터시간이 잘 맞춰저 있으면 다음을 누른다.

 

▲화면을 좀더 크게 보고싶으면 Configure를 눌러 1024X768을 추가한 뒤 해상도에서 선택하고 다음을 누른다.

 

▲계정을 만들지 말고 3번째를 선택하고 다음을 누른다.

 

▲나중에 완료할 예정을 선택하고 다음을 누른다.

 

▲그냥 다음을 누른다.

 

▲경고창이 하나 뜨는데 계속 진행을 누르고 넘어간다.

▲다음을 누른다.

 

▲다음을 누른다.

 

▲이렇게 하면 RHEL4 설치가 완료되었다. 이어서 설치전 작업을 진행하면 된다

 

 
by 짱구를꼭말려 2013. 8. 23. 12:44

RHEL5 or OEL - 11g - ASM 설치 후 재부팅하면 오라클 디스크가 조회가 되지 않고, 시작도 안될 때

SQL> select status from v$instance;
select status from v$instance
*
ERROR at line 1:
ORA-01034: ORACLE not available
Process ID: 0
Session ID: 0 Serial number: 0


SQL> startup
ORA-00099: warning: no parameter file specified for ASM instance
ASM instance started

Total System Global Area  284565504 bytes
Fixed Size                  1336036 bytes
Variable Size             258063644 bytes
ASM Cache                  25165824 bytes
ORA-15110: no diskgroups mounted

 

[root@server122 ~]# oracleasm disks

(아무것도 안나옴)

 

▲ RHEL5, OEL에서는 dm-xxxxx 라는 파일에서 디스크를 찾게끔 만들어져 있다.
1.그 파일을 찾아서 주석처리를 해 주면 된다.
2.dm 부분을 ""이렇게 공백처리 해 주면 되나? (이건 해보진 않았다, 가설만 세움)

 

요약

11g asm 설치 후 oracleasm listdisks 했는데 디스크 목록이 안보일 경우 조치하기
해결책 : /etc/udev/rules.d/90-dm.rules 파일을 열어서 첫 번째 줄을 주석 처리할 것.

이 작업을 한 후 asm 은 정상 오픈 되었다.

이 아래는 해보진 않았지만 참고


 

 

** 위 작업 설명
We already had the same symptom of ORA-15032 & ORA-15063 mentioned in my last post. Trying to follow these instructions didn't help this time.

 

ls -l /dev/oracleasm/disks/*
rpm -qa | grep oracleasm ->
kfod asm_diskstring='ORCL:*' disks=all
(/etc/init.d/oracleasm) /etc/sysconfig/oracleasm conatin ORACLEASM_SCANORDER=dm
spfile has: asm_diskstring = /dev/dm*

 

All of these command worked fine. Beacause of the dm* parameter I checked the filesystem:

 

$ ls -l /dev/dm-*
/bin/ls: /dev/dm-*: No such file or directory

 

It seems that the dm* devices are missing and must be there for ASM by Note 602952.1 :

 

NOTE: When scanning, only the device names known by the kernel are scanned. With device-mapper, the kernel sees the devices as /dev/dm-XX. The /dev/mapper/XXX names are created by udev for human readability. Any configuration of ORACLEASM_SCANORDER or ORACLEASM_SCANEXCLUDE must use the dm prefix.

 

Since this Host is RedHat 5, we found the source of the problem by Note 558596.1:

 

Cause: The oracleasm scans /proc/partitions and expects devices to be available in /dev. If the device doesn't exist in /dev it will fail to open the device. RHEL/OEL5 does not create dm-xx devices in /dev by default.

Solution: Please comment out the following line in file /etc/udev/rules.d/50-udev.rules
#KERNEL=="dm-[0-9]*", ACTION=="add", OPTIONS+="ignore_device"
reboot and the problem should be gone.
Note: Newer versions of EL/RH 5 the udev rule has been moved to "/etc/udev/rules.d/90-dm.rules".

 


11g asm 설치 후 재부팅하면 DB 시작이 안되는 경우 조치방법
-> root 계정으로 $ASM_HOME/bin 아래에서
   ./crsctl start resource ora.cssd  실행

by 짱구를꼭말려 2013. 8. 13. 10:57
| 1 |