...

Oracle Grid Infrastructureインストレーション・ガイド, 11gリリース2(11.2

by user

on
Category: Documents
582

views

Report

Comments

Transcript

Oracle Grid Infrastructureインストレーション・ガイド, 11gリリース2(11.2
Oracle® Grid Infrastructure
インストレーション・ガイド
11g リリース2(11.2)for Linux
部品番号: B56271-01
2009年10月
Oracle Grid Infrastructureインストレーション・ガイド, 11gリリース2(11.2)for Linux
部品番号: B56271-01
Oracle Grid Infrastructure Installation Guide, 11g Release 2 (11.2) for Linux
原本部品番号: E10812-03
原本著者: Douglas Williams
原本協力者: David Brower、Jonathan Creighton、Barb Lundhild、Saar Maoz、Markus Michalewicz、Hanlin Qian、Janet Stern、 Aiman AlKhammash、Troy Anthony、Ram Avudaiappan、Mario Barrientos、Mark Bauer、Yuki Feng、Mark Fuller、Barb Glover、Fred Glover、Paul
Harter、Yingwei Hu、Masakazu Ito、Mayumi Hayasaka、Prakash Jashnani、Sameer Joshi、Sana Karam、Roland Knapp、Erich Kreisler、Jai
Krishnani、Shashi Lanka、John Leys、Karen Li、Rich Long、Scott Lu、Dave Marshall、Greg Mengel、Manami Miyanaga、Anil Nair、Van
Okamura、Stefan Pommerenk、Srinivas Poovala、Justin Ren、Sudhe Sampath、Shachi Sanklecha、Vishal Saxena、Janelle Simmons、Akshay
Shah、Ara Shakian、Vivian Schupmann、James Spiller、Malai Stalin、Dipak Saggi、Bob Thome、S. Matt Taylor、Preethi Vallam、Rick
Wessman、Jim Womack、Warren Xu、Sivakumar Yarlagadda、Min Yu、Yunzhou Zheng、Ricky Zhu
Copyright © 2007, 2009, Oracle and/or its affiliates. All rights reserved.
制限付権利の説明
このソフトウェアおよび関連ドキュメントの使用と開示は、ライセンス契約の制約条件に従うものとし、知的財産に関する法律により保護され
ています。 ライセンス契約で明示的に許諾されている場合もしくは法律によって認められている場合を除き、形式、手段に関係なく、いかなる
部分も使用、複写、複製、翻訳、放送、修正、ライセンス供与、送信、配布、発表、実行、公開または表示することはできません。 このソフト
ウェアのリバース・エンジニアリング、逆アセンブル、逆コンパイルは互換性のために法律によって規定されている場合を除き、禁止されてい
ます。
ここに記載された情報は予告なしに変更される場合があります。また、誤りが無いことの保証はいたしかねます。 誤りを見つけた場合は、オラ
クル社までご連絡ください。
このソフトウェアまたは関連ドキュメントが、米国政府機関もしくは米国政府機関に代わってこのソフトウェアまたは関連ドキュメントをライ
センスされた者に提供される場合は、次のNoticeが適用されます。
U.S. GOVERNMENT RIGHTS
Programs, software, databases, and related documentation and technical data delivered to U.S. Government customers are
"commercial computer software" or "commercial technical data" pursuant to the applicable Federal Acquisition Regulation and
agency-specific supplemental regulations. As such, the use, duplication, disclosure, modification, and adaptation shall be
subject to the restrictions and license terms set forth in the applicable Government contract, and, to the extent applicable by
the terms of the Government contract, the additional rights set forth in FAR 52.227-19, Commercial Computer Software License
(December 2007). Oracle USA, Inc., 500 Oracle Parkway, Redwood City, CA 94065.
1
このソフトウェアは様々な情報管理アプリケーションでの一般的な使用のために開発されたものです。 このソフトウェアは、危険が伴うアプリ
ケーション(人的傷害を発生させる可能性があるアプリケーションを含む)への用途を目的として開発されていません。 このソフトウェアを危
険が伴うアプリケーションで使用する際、このソフトウェアを安全に使用するために、適切な安全装置、バックアップ、冗長性
(redundancy)、その他の対策を講じることは使用者の責任となります。 このソフトウェアを危険が伴うアプリケーションで使用したことに起
因して損害が発生しても、オラクル社およびその関連会社は一切の責任を負いかねます。
OracleはOracle Corporationおよびその関連企業の登録商標です。 その他の名称は、それぞれの所有者の商標または登録商標です。
このソフトウェアおよびドキュメントは、第三者のコンテンツ、製品、サービスへのアクセス、あるいはそれらに関する情報を提供することが
あります。 オラクル社およびその関連会社は、第三者のコンテンツ、製品、サービスに関して一切の責任を負わず、いかなる保証もいたしませ
ん。 オラクル社およびその関連会社は、第三者のコンテンツ、製品、サービスへのアクセスまたは使用によって損失、費用、あるいは損害が発
生しても、一切の責任を負いかねます。
2
目次
表一覧
タイトルおよび著作権情報
はじめに
●
●
●
●
対象読者
ドキュメントのアクセシビリティについて
関連ドキュメント
表記規則
Oracle Grid Infrastructureのインストールおよび構成に関する新機能
●
●
●
サポートが終了したオプション
リリース2(11.2)の新機能
リリース1(11.1)の新機能
1 クラスタ用Oracle Grid Infrastructureの標準インストール
●
●
●
1.1 標準インストールと拡張インストール
1.2 標準インストールを使用して実行するインストール前の手順
1.3 手作業を必要とするインストール前の手順
❍
1.3.1 システム要件の確認
❍
1.3.2 ネットワーク要件の確認
■
1.3.2.1 クラスタの単一クライアント・アクセス名(SCAN)
■
1.3.2.2 IPアドレス要件
■
1.3.2.3 ネットワーク・インタフェースの意図した使用方法
❍
1.3.3 オペレーティング・システム・パッケージの確認
❍
1.3.4 グループおよびユーザーの作成
❍
1.3.5 記憶域の確認
❍
1.3.6 自動ストレージ管理用の記憶域の準備
■
1.3.6.1 ULNによるASMLIBパッケージの自動インストール
■
1.3.6.2 ASMLIBパッケージの手動インストール
■
1.3.6.3 ASMの候補ディスク・パーティションのマーキング
❍
1.3.7 Oracle Grid Infrastructureソフトウェアのインストール
2 クラスタ用Oracle Grid Infrastructureの拡張インストール前の作業
●
●
●
●
●
2.1 Linuxオペレーティング・システムのインストール
❍
2.1.1 Linuxの最小インストールの実行
❍
2.1.2 デフォルトのLinuxインストールの実行
❍
2.1.3 Oracle Validated Configuration RPMについて
❍
2.1.4 Oracle Validated Configuration RPMのインストール
2.2 アップグレードのベスト・プラクティスの確認
2.3 インストール修正スクリプト
2.4 X端末を使用したリモート・システムへのログイン
2.5 Oracle Grid Infrastructureのグループ、ユーザーおよびパスの作成
❍
2.5.1 Oracle InventoryおよびOracle Inventoryグループの存在の確認
❍
2.5.2 Oracle Inventoryが存在しない場合のOracle Inventoryグループの作成
❍
2.5.3 Oracle Grid Infrastructureユーザーの作成
■
2.5.3.1 Oracleソフトウェアのインストール所有者に対する制限の理解
3
2.5.3.2 Oracleソフトウェア所有者ユーザーの存在の確認
2.5.3.3 Oracle Grid InfrastructureのOracleソフトウェア所有者ユーザーの作成または変更
❍
2.5.4 Oracleベース・ディレクトリのパスの作成
❍
2.5.5 役割区分によるオペレーティング・システム権限グループおよびユーザーの作成
■
2.5.5.1 役割区分によるグループおよびユーザーの作成の概要
■
2.5.5.2 役割区分によるデータベース・グループおよびユーザーの作成
❍
2.5.6 標準的なグループ、ユーザーおよびパスの作成例
❍
2.5.7 ロール割当てをしたグループ、ユーザーおよびパスの作成例
2.6 ハードウェア要件の確認
2.7 ネットワーク要件の確認
❍
2.7.1 ネットワーク・ハードウェア要件
❍
2.7.2 IPアドレス要件
■
2.7.2.1 グリッド・ネーミング・サービスのIPアドレス要件
■
2.7.2.2 手動で構成する場合のIPアドレス要件
❍
2.7.3 グリッド・ネーミング・サービスへのドメイン委任のためのDNS構成
❍
2.7.4 グリッド・ネーミング・サービスの構成例
❍
2.7.5 手動によるIPアドレスの構成例
❍
2.7.6 ネットワーク・インタフェース構成のオプション
❍
2.7.7 ネーム・サービス・キャッシュ・デーモンの有効化
2.8 ソフトウェア要件の特定
❍
2.8.1 x86(32-bit)Linuxプラットフォームでのソフトウェア要件
❍
2.8.2 x86-64 Linuxプラットフォームでのソフトウェア要件
2.9 ソフトウェア要件の確認
2.10 ネットワーク・タイム・プロトコルの設定
2.11 Linuxのcvuqdiskパッケージのインストール
2.12 Intelligent Platform Management Interface(IPMI)の有効化
❍
2.12.1 IPMIを有効化するための要件
❍
2.12.2 IPMI管理ネットワークの構成
❍
2.12.3 IPMIドライバの構成
■
2.12.3.1 Open IPMIドライバの構成
■
2.12.3.2 BMCの構成
2.13 インストール時におけるSSHの自動構成
2.14 グリッド・インフラストラクチャ・ソフトウェア所有者ユーザー環境の構成
❍
2.14.1 Oracle Grid Infrastructureソフトウェア所有者の環境要件
❍
2.14.2 Oracleソフトウェア所有者の環境の構成手順
❍
2.14.3 Oracleソフトウェア・インストール・ユーザーのリソース制限の設定
❍
2.14.4 表示およびX11転送の構成の設定
❍
2.14.5 インストール中にsttyコマンドによって発生するエラーの防止
2.15 Oracle Grid Infrastructureホーム・ディレクトリの作成要件
■
■
●
●
●
●
●
●
●
●
●
●
3 クラスタ用グリッド・インフラストラクチャとOracle Real Application Clusters(Oracle RAC)の記憶域
の構成
●
●
3.1 Oracle Grid Infrastructureの記憶域オプションの確認
❍
3.1.1 Oracle ClusterwareおよびOracle RACの記憶域オプションの概要
❍
3.1.2 Oracle Grid InfrastructureおよびOracle RACの記憶域についての一般的な考慮事項
■
3.1.2.1 Oracle Clusterwareの記憶域についての一般的な考慮事項
■
3.1.2.2 Oracle RACの記憶域についての一般的な考慮事項
❍
3.1.3 サポートされている記憶域オプション
❍
3.1.4 ディスクの記憶域オプションを選択した後の作業
3.2 共有ファイル・システムの記憶域の構成
❍
3.2.1 共有ファイル・システムを使用するための要件
❍
3.2.2 Oracle Clusterwareファイル用のクラスタ・ファイル・システムの使用の確認
❍
3.2.3 データ・ファイル用のDirect NFSの使用の確認
■
3.2.3.1 Direct NFS記憶域について
■
3.2.3.2 Direct NFSでのoranfstabファイルの使用
■
3.2.3.3 Direct NFSを使用したNFS記憶域デバイスのマウント
■
3.2.3.4 oranfstabファイルを使用したネットワーク・パスの指定
❍
3.2.4 データ・ファイル用のNFSの使用の確認
❍
3.2.5 記憶域のNFSマウントおよびバッファ・サイズ・パラメータの構成
❍
3.2.6 Oracle Clusterware用のNFSマウントおよびバッファ・サイズ・パラメータの確認
4
3.2.7 Oracle RAC用のNFSマウントおよびバッファ・サイズ・パラメータの確認
3.2.8 NFSのDirect NFSクライアントのOracle Disk Manager制御の有効化
❍
3.2.9 共有ファイル・システムでのOracle Clusterwareファイル用のディレクトリの作成
❍
3.2.10 共有ファイル・システムでのOracle Databaseファイル用のディレクトリの作成
❍
3.2.11 NFSのDirect NFSクライアントのOracle Disk Manager制御の無効化
3.3 自動ストレージ管理の記憶域の構成
❍
3.3.1 自動ストレージ管理用の記憶域の構成
■
3.3.1.1 自動ストレージ管理の記憶域要件の指定
■
3.3.1.2 自動ストレージ管理で使用するNASデバイスでのファイルの作成
■
3.3.1.3 既存の自動ストレージ管理ディスク・グループの使用
■
3.3.1.4 ASMLIBを使用した自動ストレージ管理用のディスクの構成
■
3.3.1.5 Oracle ASM用のディスク・デバイスの手動構成
❍
3.3.2 ASMでのOracle Databaseファイルによるディスク・グループの使用
■
3.3.2.1 ASM上の既存のOracle Databaseディスク・グループの指定と使用
■
3.3.2.2 Oracle Databaseデータ・ファイルのためのディスク・グループの作成
❍
3.3.3 Oracle自動ストレージ管理クラスタ・ファイル・システム(ACFS)の構成
❍
3.3.4 既存のOracle ASMインスタンスの移行
❍
3.3.5 スタンドアロンのOracle ASM環境からクラスタ化されたOracle ASM環境への変換
3.4 ブロック・デバイスおよびRAWデバイスのサポート終了
❍
❍
●
●
4 クラスタ用Oracle Grid Infrastructureのインストール
●
●
●
●
●
4.1 OUIを使用してOracle Grid Infrastructureをインストールするための準備
4.2 グリッド・インフラストラクチャのインストール
❍
4.2.1 OUIの実行によるグリッド・インフラストラクチャのインストール
❍
4.2.2 クラスタ構成ファイルを使用したグリッド・インフラストラクチャのインストール
4.3 ソフトウェアのみのインストールを使用したグリッド・インフラストラクチャのインストール
❍
4.3.1 ソフトウェア・バイナリのインストール
❍
4.3.2 ソフトウェア・バイナリの構成
4.4 Oracle Clusterwareの機能の確認
4.5 Oracle Clusterwareファイルを対象とするOracle ASM機能の確認
5 Oracle Grid Infrastructureのインストール後の手順
●
●
●
●
5.1 インストール後に必要な作業
❍
5.1.1 パッチの更新のダウンロードおよびインストール
5.2 インストール後の推奨作業
❍
5.2.1 root.shスクリプトのバックアップ
❍
5.2.2 クラスタ状態管理のインストール
■
5.2.2.1 Instantaneous Problem Detection OS Tool(IPD/OS)のインストール
■
5.2.2.2 OS WatcherおよびRACDDTのインストール
❍
5.2.3 セマフォ・パラメータの調整
❍
5.2.4 高速リカバリ領域ディスク・グループの作成
■
5.2.4.1 高速リカバリ領域および高速リカバリ領域ディスク・グループについて
■
5.2.4.2 高速リカバリ領域ディスク・グループの作成
5.3 旧バージョンのOracle Databaseのグリッド・インフラストラクチャでの使用
❍
5.3.1 旧バージョンのOracle Databaseの使用に関する一般的な制限
❍
5.3.2 Oracle Databaseリリース10.xまたは11.x用のクラスタ・ノードの固定
❍
5.3.3 Oracle Databaseリリース9.2のためのグローバル・サービス・デーモン(GSD)の有効化
❍
5.3.4 適切なLSNRCTLコマンドの使用
5.4 インストール後のOracle Clusterwareバイナリの変更
6 Oracle Grid Infrastructureを変更または削除する方法
●
●
●
●
6.1
6.2
6.3
6.4
Oracle Clusterwareを削除するタイミングの決定
Oracle RestartからOracle Clusterwareへの移行
クラスタへのスタンドアロン・グリッド・インフラストラクチャ・サーバーの追加
クラスタ用Oracle Grid Infrastructureのバイナリの再リンク
5
●
6.5 Oracle Database 11gの削除
❍
6.5.1 削除ツールについて
❍
6.5.2 Oracle ClusterwareおよびASMに対するdeinstallコマンドの実行例
❍
6.5.3 クラスタ用グリッド・インフラストラクチャの削除パラメータ・ファイルの例
A Oracle Grid Infrastructureのインストール・プロセスに関するトラブルシューティング
●
●
●
●
●
●
●
A.1
A.2
A.3
A.4
A.5
A.6
A.7
一般的なインストールの問題
詳細モードによるCVUの「不明」出力メッセージの解釈
Oracle Grid Infrastructureの設定に関するCVUメッセージの解釈
Oracle Clusterwareアラート・ログについて
Linuxでのオペレーティング・システム・パッケージの不足
Oracle Grid Infrastructureのインストール中のクラスタ診断の実行
インターコネクト構成の問題
B レスポンス・ファイルを使用したOracle Databaseのインストールおよび構成
●
●
●
●
●
●
●
B.1 レスポンス・ファイルの機能
❍
B.1.1 サイレント・モードまたはレスポンス・ファイル・モードを使用する理由
❍
B.1.2 レスポンス・ファイルの一般的な使用手順
B.2 oraInst.locファイルの作成
B.3 レスポンス・ファイルの準備
❍
B.3.1 レスポンス・ファイル・テンプレートの編集
❍
B.3.2 レスポンス・ファイルの記録
B.4 レスポンス・ファイルを使用したインストーラの実行
B.5 レスポンス・ファイルを使用したNet Configuration Assistantの実行
B.6 レスポンス・ファイルを使用したDatabase Configuration Assistantの実行
❍
B.6.1 レスポンス・ファイル・モードでのDatabase Configuration Assistantについて
❍
B.6.2 レスポンス・ファイル・モードまたはサイレント・モードでのDatabase Configuration Assistantの実行
B.7 レスポンス・ファイルを使用したインストール後の構成
❍
B.7.1 インストール後の構成ファイルについて
❍
B.7.2 レスポンス・ファイルを使用したインストール後の構成の実行
C 大容量メモリーを最適化する構成
●
●
C.1 HugePagesの概要
❍
C.1.1 HugePagesの機能
C.2 HugePages構成に対する制限
D クラスタ用Oracle Grid Infrastructureのインストールの概要
●
●
D.1 インストール前の構成の理解
❍
D.1.1 Oracleグループおよびユーザーの理解
■
D.1.1.1 Oracle Inventoryグループの理解
■
D.1.1.2 Oracle Inventoryディレクトリの理解
❍
D.1.2 Oracleベース・ディレクトリのパスの理解
■
D.1.2.1 Oracleベース・ディレクトリの概要
■
D.1.2.2 Oracleベース・ディレクトリとグリッド・インフラストラクチャ・ディレクトリの理解
❍
D.1.3 ネットワーク・アドレスの理解
■
D.1.3.1 パブリックIPアドレスについて
■
D.1.3.2 プライベートIPアドレスについて
■
D.1.3.3 仮想IPアドレスについて
■
D.1.3.4 グリッド・ネーミング・サービス(GNS)の仮想IPアドレスについて
■
D.1.3.5 SCANについて
❍
D.1.4 ネットワークの時刻要件の理解
D.2 記憶域の構成の理解
❍
D.2.1 自動ストレージ管理クラスタ・ファイル・システム(ACFS)の理解
6
D.2.2 既存のOracle ASMインスタンスの移行について
D.2.3 スタンドアロンのOracle ASMインストール環境からクラスタ化されたOracle ASMインストール環境への変換について
D.3 アウトオブプレース・アップグレードの理解
❍
❍
●
E インストールの前提条件の作業を手動で行う方法
●
●
●
E.1 すべてのクラスタ・ノードでの手動によるSSHの構成
❍
E.1.1 システム上の既存のSSH構成の確認
❍
E.1.2 クラスタ・ノードでのSSHの構成
■
E.1.2.1 各ノードでのSSHディレクトリおよびSSH鍵の作成
■
E.1.2.2 共通のauthorized_keysファイルへのすべての鍵の追加
❍
E.1.3 クラスタ・ノードでのSSHユーザー等価関係の有効化
E.2 カーネル・パラメータの構成
❍
E.2.1 インストールのための最小パラメータ設定
❍
E.2.2 SUSE Linux用の追加のパラメータおよびカーネルの設定
E.3 手動によるOCFS2のバージョンの確認
F Oracle Grid Infrastructure 11gリリース2へのアップグレード方法
●
●
●
●
●
●
●
F.1
F.2
F.3
F.4
アップグレード前のOracleソフトウェアのバックアップ
ClusterwareおよびASMをグリッド・インフラストラクチャにアップグレードする際の制限
アップグレードに対するシステム準備状況の検証
既存のOracle Clusterwareインストールのアップグレード
❍
F.4.1 既存のOracle Clusterwareインストールをアップグレードするための準備
F.5 前のリリースからのローリング・アップグレードの実行
❍
F.5.1 アップグレードに対するシステム準備状況の検証
❍
F.5.2 Oracle Clusterwareのローリング・アップグレードの実行
❍
F.5.3 自動ストレージ管理のローリング・アップグレードの実行
■
F.5.3.1 Oracle ASMをアップグレードするための準備
■
F.5.3.2 Oracle ASMのアップグレード
F.6 DB ControlおよびGrid Controlのターゲット・パラメータの更新
F.7 アップグレード後のOracle Clusterwareのダウングレード
索引
7
表一覧
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
2-1
2-2
2-3
2-4
2-5
2-6
2-7
2-8
2-9
3-1
3-2
3-3
3-4
3-5
3-6
3-7
B-1
B-2
必要なスワップ領域(RAMの倍数)
グリッド・ネーミング・サービスのネットワーク例
手動によるネットワークの構成例
Linux x86(32-bit)オペレーティング・システムのカーネル要件
Linux x86(32-bit)Grid InfrastructureおよびOracle RACのパッケージ要件
Linux x86 Oracle Databaseの機能のパッケージ要件
Linux x86-64オペレーティング・システムのカーネル要件
Linux x86-64 Oracle Grid InfrastructureおよびOracle RACのパッケージ要件
Linux x86-64 Oracle Databaseの機能のパッケージ要件
Oracle ClusterwareおよびOracle RACでサポートされている記憶域オプション
Oracle Clusterware共有ファイル・システムのボリューム・サイズ要件
Oracle RAC共有ファイル・システムのボリューム・サイズ要件
Oracle RAC用のNFSマウント・オプション
冗長タイプによるOracle Clusterwareに必要な記憶領域の合計
冗長タイプによるOracle Databaseに必要な記憶領域の合計
ORACLEASMスクリプト・オプション
Oracle Databaseのレスポンス・ファイル
Oracle Grid Infrastructureのレスポンス・ファイル
8
はじめに
このマニュアルでは、Oracle Grid Infrastructure環境(Oracle Clusterwareおよび自動ストレージ管理)をインストールして構成する準備と
してサーバーを構成する方法について説明します。 また、Oracle Real Application Clusters(Oracle RAC)をインストールする準備として
サーバーと記憶域を構成する方法についても説明します。
対象読者
このマニュアルでは、ネットワークおよびシステムの管理者が必要とする構成についての情報と、クラスタ用グリッド・インフラストラクチャ
のインストールで、Oracle Clusterwareおよび自動ストレージ管理をインストールして構成するデータベース管理者(DBA)が必要とするデータ
ベースのインストールについての情報を記載しています。
Oracle Real Application Clusters(Oracle RAC)をインストールする、特別なシステム・ロールを持つユーザーに対しては、システム管理
者、ネットワーク管理者またはストレージ管理者として、クラスタ用Oracle Grid Infrastructureのインストール準備段階でシステムを構成す
ること、およびオペレーティング・システムのroot権限を必要とするすべての構成タスクを完了することを目的としています。 グリッド・イン
フラストラクチャのインストールおよび構成が正常に完了した場合、システム管理者が行う必要があることは、構成情報の指定と、Oracle RAC
のインストール中にrootとしてスクリプトを実行する権限をデータベース管理者に付与することのみです。
このマニュアルは、Oracle Databaseの概念を十分に理解していることを前提としています。 詳細は、関連ドキュメントのリストを参照してく
ださい。
ドキュメントのアクセシビリティについて
オラクル社は、障害のあるお客様にもオラクル社の製品、サービスおよびサポート・ドキュメントを簡単にご利用いただけることを目標として
います。 オラクル社のドキュメントには、ユーザーが障害支援技術を使用して情報を利用できる機能が組み込まれています。 HTML形式のド
キュメントで用意されており、障害のあるお客様が簡単にアクセスできるようにマークアップされています。 標準規格は改善されつつありま
す。オラクル社はドキュメントをすべてのお客様がご利用できるように、市場をリードする他の技術ベンダーと積極的に連携して技術的な問題
に対応しています。 オラクル社のアクセシビリティについての詳細情報は、Oracle Accessibility ProgramのWebサイトhttp://www.oracle.
com/accessibility/を参照してください。
ドキュメント内のサンプル・コードのアクセシビリティについて
スクリーン・リーダーは、ドキュメント内のサンプル・コードを正確に読めない場合があります。 コード表記規則では閉じ括弧だけを行に記述
する必要があります。しかしJAWSは括弧だけの行を読まない場合があります。
外部Webサイトのドキュメントのアクセシビリティについて
このドキュメントにはオラクル社およびその関連会社が所有または管理しないWebサイトへのリンクが含まれている場合があります。 オラクル
社およびその関連会社は、それらのWebサイトのアクセシビリティに関しての評価や言及は行っておりません。
聴覚に障害があるお客様のOracleサポート・サービスへのアクセス
Oracleサポート・サービスに連絡するには、テレコミュニケーション・リレー・サービス(TRS)を使用してOracleサポート(+1-800-2231711)までお電話ください。 Oracleサポート・サービスの技術者が、Oracleサービス・リクエストのプロセスに従って、技術的な問題を処理
し、お客様へのサポートを提供します。 TRSの詳細は、http://www.fcc.gov/cgb/consumerfacts/trs.htmlを参照してください。電話番号の一覧
は、http://www.fcc.gov/cgb/dro/trsphonebk.htmlを参照してください。
関連ドキュメント
詳細は、次のOracleマニュアルを参照してください。
Oracle ClusterwareおよびOracle Real Application Clustersのドキュメント
このマニュアルでは、Oracle ClusterwareおよびOracle自動ストレージ管理のインストールを完了するために必要な手順、およびOracle RACの
インストール前の手順を実行するために必要な手順を確認します。
Oracle DatabaseまたはOracle RACをインストールする場合は、このマニュアルの説明に従ってインストール前の作業およびグリッド・インフラ
9
ストラクチャのインストールを完了します。追加情報については次のインストール関連のマニュアルを参照してください。 グリッド・インフラ
ストラクチャ・インストール環境にスタンドアロン・サーバー用Oracle Databaseをインストールするか、またはOracle RACベースをインストー
ルすることができます。 Grid InfrastructureのOracle Restartのデプロイメントをインストールする場合は、Oracle Databaseのインストレー
ション・ガイドを参照してください。
ほとんどのOracleエラー・メッセージのドキュメントは、HTML版のみが存在します。 Oracle Database JP Documentation Libraryを使用する場
合は、エラー・メッセージを範囲ごとに参照できます。 特定の範囲のページを表示したら、ブラウザの「このページの検索」機能を使用して特
定のメッセージを検索できます。 インターネットに接続できる場合、Oracleオンライン・ドキュメントのエラー・メッセージ検索機能を使用し
て特定のエラー・メッセージを検索できます。 ただし、Oracle ClusterwareおよびOracle RACツールのエラー・メッセージは、『Oracle Real
Application Clusters管理およびデプロイメント・ガイド』または『Oracle Clusterware管理およびデプロイメント・ガイド』に記載されてい
ます。
インストレーション・ガイド
●
『Oracle Diagnostics Pack Installation』
●
Oracle Databaseのインストレーション・ガイド
●
Oracle Real Application Clustersのインストレーション・ガイド
オペレーティング・システム固有の管理者ガイド
●
Oracle Databaseの管理者リファレンス
●
『Oracle Databaseプラットフォーム・ガイドfor Microsoft Windows』
Oracle ClusterwareおよびOracle自動ストレージ管理の管理者ガイド
●
『Oracle Clusterware管理およびデプロイメント・ガイド』
●
『Oracle Databaseストレージ管理者ガイド』
Oracle Real Application Clustersの管理者ガイド
●
『Oracle Real Application Clusters管理およびデプロイメント・ガイド』
●
『Oracle Database 2日でReal Application Clustersガイド』
●
『Oracle Database 2日でデータベース管理者』
●
『Getting Started with the Oracle Diagnostics Pack』
共通マニュアル
●
『Oracle Database管理者ガイド』
●
『Oracle Database概要』
●
『Oracle Database新機能ガイド』
●
『Oracle Database Net Services管理者ガイド』
●
『Oracle Databaseリファレンス』
10
リリース・ノート、インストール関連ドキュメント、ホワイト・ペーパーまたはその他の関連ドキュメントは、OTN-J(Oracle Technology
Network Japan)から、無償でダウンロードできます。 OTN-Jを使用するには、オンラインでの登録が必要です。登録は、次のWebサイトから無
償で行えます。
http://www.oracle.com/technology/global/jp/membership/index.html
すでにOTN-Jのユーザー名およびパスワードを取得している場合は、次のURLでOTN-J Webサイトのドキュメントのセクションに直接接続できま
す。
http://www.oracle.com/technology/global/jp/documentation/index.html
表記規則
このマニュアルでは次の表記規則を使用します。
規則
意味
太字
太字は、操作に関連するGraphical User Interface要素、または本文中で定義されている用語および用語集に記載されてい
る用語を示します。
イタリック体
イタリックは、ユーザーが特定の値を指定するプレースホルダ変数を示します。
固定幅フォント
固定幅フォントは、段落内のコマンド、URL、サンプル内のコード、画面に表示されるテキスト、または入力するテキストを
示します。
サポートおよびサービス
次の各項に、各サービスに接続するためのURLを記載します。
Oracleサポート・サービス
オラクル製品サポートの購入方法、およびOracleサポート・サービスへの連絡方法の詳細は、次のURLを参照してください。
http://www.oracle.com/lang/jp/support/index.html
製品マニュアル
製品のマニュアルは、次のURLにあります。
http://www.oracle.com/technology/global/jp/documentation/index.html
研修およびトレーニング
研修に関する情報とスケジュールは、次のURLで入手できます。
http://education.oracle.com/pls/web_prod-plq-dad/db_pages.getpage?page_id=3
その他の情報
オラクル製品やサービスに関するその他の情報については、次のURLから参照してください。
11
http://www.oracle.com/lang/jp/index.html
http://www.oracle.com/technology/global/jp/index.html
注意:
ドキュメント内に記載されているURLや参照ドキュメントには、Oracle Corporationが提供する英語の情報も含まれ
ています。日本語版の情報については、前述のURLを参照してください。
12
Oracle Grid Infrastructureのインストールおよび構成に関する新機能
ここでは、Oracle Grid Infrastructure(Oracle Clusterwareと自動ストレージ管理)およびOracle Real Application Clusters(Oracle
RAC)のインストールおよび構成に関連する新機能について説明します。 内容は次のとおりです。
●
サポートが終了したオプション
●
リリース2(11.2)の新機能
●
リリース1(11.1)の新機能
サポートが終了したオプション
このリリースでサポートが終了しているオプションは、次のとおりです。
OUIでのブロック・デバイスおよびRAWデバイスの非サポート
このリリースでは、ブロック・デバイスまたはRAWデバイスへのOracle ClusterwareファイルのインストールがOUIでサポートされなくなりまし
た。 Oracle Clusterwareファイルは、自動ストレージ管理ディスク・グループまたはサポートされている共有ファイル・システムのいずれかに
インストールしてください。
リリース2(11.2)の新機能
Oracle ClusterwareおよびOracle ASM 11gリリース2(11.2)のインストールに関する新機能は、次のとおりです。
自動ストレージ管理およびOracle Clusterwareのインストール
Oracle Grid Infrastructure 11gリリース2(11.2)では、自動ストレージ管理(ASM)およびOracle Clusterwareが1つのホーム・ディレクトリ
(Grid Infrastructureホーム)にインストールされます。 インストーラのインタビュー・プロセスが終了すると、ASMおよびOracle
Clusterwareを構成するコンフィギュレーション・アシスタントが起動します。
これらの製品を組み合せたインストール環境をOracle Grid Infrastructureと呼びます。 ただし、Oracle Clusterwareと自動ストレージ管理は
依然として別々の製品です。
自動ストレージ管理およびOracle Clusterwareのファイル
このリリースでは、Oracle Cluster Registry(OCR)および投票ディスクを自動ストレージ管理(ASM)に配置できます。
この機能により、ASMは、統合ストレージ・ソリューションとして、他社のボリューム・マネージャやクラスタ・ファイル・システムを使用せず
に、クラスタウェアおよびデータベースのすべてのデータを保存できます。
新しいインストール環境では、ASM、クラスタ・ファイル・システムまたはNFSシステムのいずれかにOCRと投票ディスクのファイルを配置できま
す。 既存システムがアップグレードされる場合を除いて、RAWデバイスまたはブロック・デバイスへのOracle Clusterwareファイルのインス
トールはサポートされなくなりました。
自動ストレージ管理クラスタ・ファイル・システム(ACFS)
Oracle自動ストレージ管理クラスタ・ファイル・システム(Oracle ACFS)は、複数のプラットフォームに対応するスケーラブルな新しいファイ
ル・システムとしてストレージを管理します。このシステムにより、Oracle自動ストレージ管理(ASM)テクノロジは、アプリケーション・デー
タをすべてサポートするように拡張されます。 Oracle ACFSでは、ファイル・システムの動的なサイズ変更が可能で、使用可能なすべてのディ
スクにわたる分散、バランシングおよびストライプ化のテクノロジによってパフォーマンスを向上させ、ASMのミラー化およびパリティ保護に
よってストレージの信頼性をもたらします。
13
SYSASMによるASM役割区分オプション
Oracle ASM 11gリリース1(11.1)で導入されたSYSASM権限が、SYSDBA権限と完全に分離されました。 このオプション機能を使用すると、OSASM
およびOSDBAグループとして異なるオペレーティング・システム・グループを指定した場合に、OSASMグループのメンバーのみがSYSASM管理権限
を使用できます。 Oracle ASMインスタンス上でパスワード認証を使用して、SYSASM権限を付与することもできます。
OPERATOR権限(ASMの起動および停止権限を含む、SYSASM権限のサブセット)をASMグループのOSOPERのメンバーに指定できます。
SYSDBA権限のかわりにSYSASM権限を使用して記憶域層に対するシステム権限を付与すると、ASM管理とデータベース管理での役割を明確に区
別できます。また、同じ記憶域を使用する異なるデータベース間で、互いのファイルを誤って上書きするのを防ぐこともできます。
参照:
『Oracle Databaseストレージ管理者ガイド』
クラスタ時刻同期化サービス
クラスタ・ノードの時刻は、同期させておく必要があります。 このリリースのOracle Clusterwareでは、同期サービスがクラスタ内にあること
を保証するクラスタ時刻同期化サービス(CTSS)を提供しています。 クラスタの構成時にネットワーク・タイム・プロトコル(NTP)が検出さ
れなかった場合は、CTSSが構成されて時刻の同期が保証されます。
Enterprise Manager Database Controlのプロビジョニング
Enterprise Manager Database Control 11gには、Oracle Grid InfrastructureおよびOracle RACのインストール環境を新しいノードに自動的に
プロビジョニングし、そのノードに対してOracle Grid InfrastructureおよびOracle RACの既存のデータベースを拡張する機能があります。 こ
のプロビジョニング手順を実行するには、この機能を使用する前にOracle RACが正しくインストールされている必要があります。
参照:
この機能の詳細は、『Oracle Real Application Clusters管理およびデプロイメント・ガイド』を参照してくだ
さい。
修正スクリプトおよびグリッド・インフラストラクチャのチェック
Oracle Clusterware 11gリリース2(11.2)では、インストールの最小要件を満たしていない場合はインストーラ(OUI)によって検知され、要
件を満たしていないシステム構成の多くを解決するために、修正スクリプトと呼ばれるシェル・スクリプト・プログラムが作成されます。 「修
正可能」とマークされている不完全な作業がOUIで検知されたときは、「修正および再チェック」ボタンをクリックして修正スクリプトを生成す
ることで、簡単に問題を解決できます。
修正スクリプトはインストール中に生成されます。 rootとして別の端末セッションでスクリプトを実行するように求められます。 スクリプト
を実行すると、必要に応じて各カーネル値を最小要件まで引き上げ、その他のオペレーティング・システム構成タスクが完了します。
クラスタ検証ユーティリティ(CVU)で、インストールの前に修正スクリプトを生成することもできます。
グリッドのプラグ・アンド・プレイ
これまでは、クラスタ内のサーバーを追加または削除しようとすると、様々な準備を手動で行う必要がありました。 今回のリリースでは、引続
き手動でサーバー・ノードを構成することも、クラスタでノードが追加または削除されたときに、グリッドのプラグ・アンド・プレイを使用し
て動的に構成することもできます。
グリッドのプラグ・アンド・プレイは、サーバー・ノードのインストール、構成および管理にかかるコストを低減できます。これは、クラスタ
内でグリッド・ネーミング・サービスを起動し、各ノードで次のタスクを動的に実行できるようすることで実現されます。
●
ノードの適切なネットワークIDをネゴシエートする。
●
動作に必要な追加情報を構成プロファイルから取得する。
14
●
プロファイル・データを使用してノードを構成または再構成し、ホスト名およびアドレスをネットワーク上で解決可能にする。
これらのタスクはサーバーによって動的に実行されるため、追加に必要な手順や、必要なノード数は最小限です。
Intelligent Platform Management Interface(IPMI)の統合
Intelligent Platform Management Interface(IPMI)は、現在、多くのサーバーに搭載されている業界標準の管理プロトコルです。 IPMIはオ
ペレーティング・システムとは別に動作し、システムの電源が投入されていなくても動作します。 IPMIを搭載したサーバーには、サーバーとの
通信に使用されるBaseboard Management Controller(BMC)が組み込まれています。
IPMIが構成されていると、ノード・フェンシングが必要で、かつサーバーが応答していないときに、Oracle ClusterでIPMIが使用されます。
Oracle Clusterwareのアウトオブプレース・アップグレード
このリリースでは、既存のOracle Clusterwareインストール環境とは別のホームに新しいバージョンのOracle Clusterwareをインストールでき
ます。 この機能により、クラスタ内のノードのアップグレードに必要な停止時間が短縮されます。 アウトオブプレース・アップグレードを行
う場合、ソフトウェアの新旧バージョンがノード上で同時に、それぞれ異なるホームの場所に存在することになりますが、アクティブになるソ
フトウェア・バージョンは1つのみです。
Oracle Enterprise Managerを使用したOracle Clusterwareの管理
このリリースでは、高可用性アプリケーションおよびOracle Cluster Resource Managementを使用し、スタンドアロン・データベース環境と
Oracle RAC環境の両方について、Enterprise Managerの「クラスタ・ホーム」ページから、すべての管理および監視を行うことができます。
Oracle Enterprise ManagerがOracle Clusterwareとともにインストールされている場合は、Enterprise ManagerでOracle Clusterwareの管理者
ロールを持つ一連のユーザーが用意されており、高可用性アプリケーションおよびOracle Clusterwareのリソース管理に必要なすべての管理お
よび監視を実行できます。 インストールが完了してEnterprise Managerをデプロイしたら、Enterprise Managerを使用して、クラスタに追加す
るノードのプロビジョニングを実行できます。
SCANによるクライアント・アクセスの簡略化
このリリースでは、単一クライアント・アクセス名(SCAN)が、クラスタに接続するすべてのクライアントに提供されるホスト名です。 SCAN
は、ドメイン・ネーム・サービス(DNS)またはグリッド・ネーミング・サービス(GNS)のいずれかにある、1つ以上3つ以下のIPアドレスに登
録されたドメイン名です。 SCANによって、クラスタに対してノードを追加または削除するときに、クライアントを変更する必要がなくなりま
す。 SCANを使用するクライアントは、EZCONNECTを使用してクラスタにアクセスすることもできます。
パッチ処理に対するSRVCTLコマンドの機能強化
このリリースでは、パッチ処理の準備をするために、srvctlを使用して、Oracleホーム内で実行されているすべてのOracleソフトウェアを停止で
きます。 Oracle Grid Infrastructureのパッチ処理は、すべてのノードで自動化されています。パッチは、複数のノードにマルチパッチ方式で
適用できます。
標準インストール・オプション
クラスタのインストールを簡単に行うため(特にクラスタリングを初めて使用するお客様向けに)、標準インストールによる方法を使用できる
ようになりました。 標準インストールでは、できるかぎり多くのオプションを、ベスト・プラクティスとして推奨されるデフォルト設定にしま
す。
投票ディスクのバックアップ手順の変更
以前のリリースでは、ddコマンドを使用して投票ディスクをバックアップする作業が、インストール後に必要でした。 Oracle Clusterwareリ
リース11.2以上では、ddコマンドを使用した投票ディスクのバックアップとリストアはサポートされていません。
手動による投票ディスクのバックアップは、必要なくなりました。構成が変更されると、その一環としてOCRで自動的に投票ディスクがバック
アップされ、そして投票ディスクが追加されると、投票ディスクのデータが自動的にリストアされるためです。
15
参照:
『Oracle Clusterware管理およびデプロイメント・ガイド』
リリース1(11.1)の新機能
リリース1(11.1)の新機能は、次のとおりです。
インストールに関するマニュアルでの変更
Oracle Database 11gリリース1では、Oracle Clusterwareを独立した製品としてインストールおよび構成できるため、記憶域管理に関して追加
のマニュアルが提供されています。 インストール計画については、次のマニュアルを参照してください。
『Oracle Database 2日でReal Application Clustersガイド』
このマニュアルでは、2ノードのOracle ClusterwareおよびOracle RAC環境をインストールおよび構成する手順の概要および例を示しています。
Oracle Clusterwareのインストレーション・ガイド
このマニュアル(現在参照中のマニュアル)では、Oracle Clusterwareをスタンドアロン製品としてインストールする手順、またはOracle
ClusterwareをOracle DatabaseまたはOracle RACのいずれかとともにインストールする手順について説明しています。 システム管理者権限が必
要なシステム構成手順が含まれています。
Oracle Real Application Clustersのインストレーション・ガイド
プラットフォームごとに提供されているこのマニュアルでは、Oracle Clusterwareのインストールを正常に完了した後にOracle RACをインス
トールする手順について説明しています。 データベース管理者用のデータベース構成手順が含まれています。
『Oracle Databaseストレージ管理者ガイド』
このマニュアルでは、ストレージの管理または自動ストレージ管理(ASM)の構成および管理を行うデータベース管理者およびストレージ管理者
用の情報を記載しています。
『Oracle Clusterware管理およびデプロイメント・ガイド』
これは、Oracle Clusterware用の管理者リファレンスです。 このリファレンスは、オペレーティング・システム構成への変更およびOracle
Clusterwareのクローニングに関連するタスクを含む管理タスクについて説明しています。
『Oracle Real Application Clusters管理およびデプロイメント・ガイド』
これは、Oracle RAC用の管理者リファレンスです。 このリファレンスは、管理タスクについて説明しています。 これらのタスクには、データ
ベースのクローニング、ノードの追加と削除、Oracle Cluster Registry(OCR)の管理、SRVCTLおよびその他のデータベース管理ユーティリ
ティの使用、オペレーティング・システム構成への変更の調整などがあります。
インストールに関するリリース1(11.1)の拡張機能および新機能
次に、Oracle Database 11gリリース1(11.1)での拡張機能および新機能を示します。
ASMの管理における新しいSYSASM権限およびOSASMオペレーティング・システム・グループ
この機能では、ASMの管理タスクを実行するための新しいSYSASM権限が導入されています。 SYSDBA権限のかわりにSYSASM権限を使用する
と、ASM管理とデータベース管理での役割を明確に区別できます。
OSASMは、ASM専用に使用する新しいオペレーティング・システム・グループです。 OSASMグループのメンバーは、オペレーティング・システム
認証を使用してSYSASMとして接続し、ASMに対して完全なアクセス権を所有しています。
16
OPROCDおよびhangcheck-timerによるクラスタ・ノードのフェンシングの実行
Oracle Clusterware 11gでは、Oracle Clusterwareプロセス・モニター・デーモン(oprocd)によってクラスタ・ノードのシステムの状態が監
視されます。 クラスタのI/Oフェンシングを実行し、Oracle RACクラスタの削除済ノードから不明な書込みが発生しないようにするには、
OPROCDとhangcheck-timerの両方を使用する必要があります。
Oracle Validated Configuration RPM
Oracle Validated Configuration RPMは、Red Hat Enterprise LinuxまたはOracle Enterprise Linuxオペレーティング・システムを使用して
サーバーにインストールできます。 Unbreakable Linux Network(ULN)から入手できます。 このRPMによって、Oracle Clusterwareのインス
トールに必要なほとんどのインストール前の構成タスク(カーネル・パラメータの設定、必要なカーネルRPMの追加など)が完了します。 ま
た、Oracle RACのインストール用のサーバーの準備も行います。
ご使用のサーバーをUnbreakable Linux Networkに登録するか、または詳しい情報を検索するには、次のURLを参照してください。
https://linux.oracle.com
17
1 クラスタ用Oracle Grid Infrastructureの標準インストール
この章では、クラスタ用Oracle Grid Infrastructureの標準インストールと拡張インストールの違いについて説明し、さらに標準インストール
を完了するために必要な手順について説明します。
この章の内容は次のとおりです。
●
標準インストールと拡張インストール
●
標準インストールを使用して実行するインストール前の手順
●
手作業を必要とするインストール前の手順
1.1 標準インストールと拡張インストール
Oracle Grid Infrastructureのインストールには、2つのインストール・オプションがあります。
●
●
標準インストール: 標準インストール・オプションは、手動による構成選択の数が少ない、簡単なインストールです。 ほとんどのク
ラスタ実装に、このインストール・タイプを選択することをお薦めします。
拡張インストール: 拡張インストール・オプションは、より高度なシステム知識を必要とする詳細な手順です。 追加の記憶域および
ネットワークの選択、ロール・ベースの管理権限のためのオペレーティング・システムのグループ認証の利用、IPMIとの統合、自動ス
トレージ管理ロールのより粒度の細かい指定など、詳細に構成を選択できます。
1.2 標準インストールを使用して実行するインストール前の手順
Oracle Clusterware 11gリリース2(11.2)では、インストール中に、Oracle Universal Installer(OUI)によって修正スクリプト(runfixup.
sh)が生成されます。このスクリプトを実行して、インストール前の必要な手順を完了することができます。
修正スクリプトはインストール中に生成されます。 rootとして別の端末セッションでスクリプトを実行するように求められます。 スクリプト
を実行すると、次の構成作業が行われます。
●
必要に応じて、インストールと実行時に必要とされるカーネル・パラメータに、最低限の値が設定されます。
1.3 手作業を必要とするインストール前の手順
次の手動の構成作業を行います。
●
システム要件の確認
●
ネットワーク要件の確認
●
オペレーティング・システム・パッケージの確認
●
グループおよびユーザーの作成
●
記憶域の確認
●
自動ストレージ管理用の記憶域の準備
18
●
Oracle Grid Infrastructureソフトウェアのインストール
参照:
これらの作業を行う方法について詳細は、第2章「クラスタ用Oracle Grid Infrastructureの拡張インストール前
の作業」と第3章「クラスタ用グリッド・インフラストラクチャとOracle Real Application Clusters(Oracle
RAC)の記憶域の構成」を参照してください。
1.3.1 システム要件の確認
使用可能なメモリーを確認するには、次のコマンドを入力します。
grep MemTotal /proc/meminfo
grep SwapTotal /proc/meminfo
RAMの最小要件は、クラスタ用グリッド・インフラストラクチャの場合1.5GB、クラスタ用グリッド・インフラストラクチャとOracle RACの場合
2.5GBです。 スワップ領域の最小要件は1.5GBです。 RAMが2GB以下のシステムでは、スワップ領域をRAMの1.5倍に設定することをお薦めしま
す。 RAMが2GBから16GBの間のシステムでは、RAMと同じサイズのスワップ領域を使用します。 RAMが16GBを超えるシステムでは、RAMの16GBをス
ワップ領域に使用します。
df -h
このコマンドでは、システムで使用可能な領域を確認します。 Oracle Clusterwareファイルに対して標準の冗長性(Oracle Cluster Registry
(OCR)用に3つの場所、および投票ディスク用に3つの場所)を使用する場合は、Oracle Grid Infrastructureファイル用に用意されている共有
ストレージ・ボリューム上で2GB以上のファイル領域を使用できる必要があります。
Oracle ASM上にインストールして、Oracle ASMでのOracle Clusterwareファイルの高可用性を確保するには、Oracle Clusterwareファイル用と
して、別々の3つの障害グループ(物理ディスクは3つ以上)に2GB以上のディスク容量が必要です。 各ディスクには1GB以上の容量を確保して、
容量に余裕を持ってOracle Clusterwareファイルを作成できるようにする必要があります。
クラスタ用グリッド・インフラストラクチャのホーム(グリッド・ホーム)には、4.5GB以上の領域を確保してください。ここには、Oracle
Clusterwareおよび自動ストレージ管理(Oracle ASM)のファイルとログ・ファイルが格納されます。
df -h /tmp
/tmpに1GB以上の領域があることを確認してください。 この領域を確保できない場合は、サイズを大きくするか、または/tmp内の不要なファイ
ルを削除します。
詳細は、第2章の次の項を参照してください。
「ハードウェア要件の確認」
1.3.2 ネットワーク要件の確認
次のものが利用可能であることを確認します。
●
クラスタの単一クライアント・アクセス名(SCAN)
●
IPアドレス要件
●
ネットワーク・インタフェースの意図した使用方法
1.3.2.1 クラスタの単一クライアント・アクセス名(SCAN)
19
標準インストール中に、実行中のノードに関係なくクラスタ内のデータベースに接続するために使用される、デフォルトの単一クライアント・
アクセス名(SCAN)を確認するよう求められます。 デフォルトでは、SCANとして使用される名前がクラスタ名にもなります。 SCANのデフォル
ト値は、ローカル・ノード名に基づいています。 SCANをデフォルトから変更する場合、使用する名前は、社内全体でグローバルに一意である必
要があります。
標準インストールでは、SCANはクラスタ名にもなります。 SCANおよびクラスタ名は長さ1文字以上15文字以下の英数字である必要があり、ハイ
フン(-)も使用できます。
次に例を示します。
sales
15文字を超えるSCANにする必要がある場合は、拡張インストールを選択してください。
SCANアドレスの要件については、次の項を参照してください。
1.3.2.2 IPアドレス要件
インストールを開始する前に、各ノードにインタフェースが2つ以上構成されている必要があります。1つはプライベートIPアドレス用、もう1つ
はパブリックIPアドレス用です。
1.3.2.2.1 手動で構成する場合のIPアドレス要件
パブリックIPアドレスおよび仮想IPアドレスは静的アドレスである必要があり、インストール前に構成されている必要があります。また、各
ノードの仮想IPアドレスは現在未使用である必要があります。 インストールのインタビュー時にプライベートとして指定したインタフェース上
のプライベート・サブネットに含まれるプライベートIPアドレスが、Oracle Clusterwareによって管理されます。
次のアドレスを構成します。
●
各ノードのパブリックIPアドレス
●
各ノードの仮想IPアドレス
●
ドメイン・ネーム・サーバー(DNS)で、3つのアドレスをラウンド・ロビン方式で解決する(推奨)か、または少なくとも1つのアド
レスを解決するよう構成した、単一クライアント・アクセス名(SCAN)。
単一クライアント・アクセス名(SCAN)は、クラスタへのサービス・アクセスをクライアントに提供するために使用されるホスト名です。 SCAN
は、特定のノードではなくクラスタ全体に関連付けされているため、クライアントの再構成を必要とせずに、クラスタでノードを追加または削
除することを可能にします。 また、クライアント構成が特定のデータベースを実行するノードに依存する必要がないように、データベースに位
置の独立性を提供します。 クライアントは引き続き、以前のリリースと同じ方法でクラスタにアクセスできますが、クラスタにアクセスするク
ライアントではSCANの使用をお薦めします。
注意:
アドレスを手動で構成する場合、SCAN VIPにDNS解決を使用することをお薦めします。 hostsファイルを使用して
SCANを解決する場合、hostsファイルのエントリをSCANアドレスごとに指定する必要があります。
参照:
ネットワーク・アドレスの詳細は、付録D「ネットワーク・アドレスの理解」を参照してください。
1.3.2.3 ネットワーク・インタフェースの意図した使用方法
インストール時に、OUIがクラスタ・ノードで検出するネットワーク・インタフェースごとに計画された使用方法を指定するように求められま
す。 各インタフェースをパブリック・インタフェースまたはプライベート・インタフェースとして指定し、Oracle ClusterwareとOracle RACの
両方に同じプライベート・インタフェースを使用する必要があります。 他の目的に使用する予定のインタフェース(ネットワーク・ファイル・
システム専用のインタフェースなど)の場合、そのインスタンスがOracle Clusterwareで無視されるように、「使用しない」インタフェースと
して指定する必要があります。
20
NIC障害に備えて、別々のインタフェースを共通のインタフェースに結合することで冗長性を提供できますが、Oracle ClusterwareとOracle RAC
用に別々のインタフェースを作成することはお薦めしません。 プライベート・インターコネクトに複数のNICを使用する場合は、NICボンディン
グを使用することをお薦めします。 複数のプライベート・インタフェースによってロード・バランシングが提供されますが、インタフェースが
結合されないかぎり、フェイルオーバーされないことに注意してください。
1.3.3 オペレーティング・システム・パッケージの確認
第2.8項「ソフトウェア要件の特定」の表でご使用のオペレーティング・システムに必要なパッケージの一覧を参照するか、第2.1項「Linuxオペ
レーティング・システムのインストール」で説明されているOracle Validated RPMなどのシステム構成スクリプトを使用してください。
1.3.4 グループおよびユーザーの作成
デフォルトのグループおよびユーザーを作成するには、次のコマンドを入力します。
オペレーティング・システムで認証されるすべての管理権限(インストールされている場合はOracle RACも含む)のために、システム権限グ
ループを1つ作成します。
# groupadd -g 1000 oinstall
# groupadd -g 1200 dba
# useradd -u 1100 -g oinstall -G dba oracle
# mkdir -p /u01/app/11.2.0/grid
# mkdir -p /u01/app/oracle
# chown -R oracle:oinstall /u01
# chmod -R 775 /u01/
1.3.5 記憶域の確認
スタンドアロンまたはOracle Real Application Clustersのデータベースをインストールする場合は、Oracle Clusterwareファイル(投票ディ
スクとOracle Cluster Registry)用、およびOracle Databaseファイル用として、自動ストレージ管理上に使用可能な領域が必要です。 新しい
インストール環境では、Oracle Clusterwareファイルをブロック・デバイスやRAWデバイスに作成することができなくなりました。
注意:
Oracle自動ストレージ管理(Oracle ASM)をOracle ClusterwareファイルまたはOracle Databaseファイルに使用
する場合、データベースの数に関係なく、クラスタ内のノードごとにOracle ASMインスタンスが1つ作成されま
す。
1.3.6 自動ストレージ管理用の記憶域の準備
Linux ASMLIB RPMをインストールして、ストレージ管理作業を簡略化します。 ASMLIBにより、ASMで使用されるストレージ・デバイスに対して
永続的なパスと権限が提供されるため、udevファイルやdevlabelファイルのストレージ・デバイスのパスや権限を更新する必要がなくなりま
す。
ASMLIB RPMをインストールできない場合、またはストレージ・デバイスを手動で構成する場合は、第3章の関連する項を参照してください。
参照:
記憶域の構成やASMLIBの詳細は、第3章「クラスタ用グリッド・インフラストラクチャとOracle Real
Application Clusters(Oracle RAC)の記憶域の構成」を参照してください。
ASMLib 2.0は、3つのLinuxパッケージのセットとして配布されます。
●
●
oracleasmlib-2.0: ASMライブラリ
oracleasm-support-2.0: ASMLibの管理に必要なユーティリティ
21
●
oracleasm: ASMライブラリ用のカーネル・モジュール
各Linuxディストリビューションには、それぞれにASMLib 2.0パッケージ・セットがあり、ディストリビューションごとに、それぞれのカーネ
ル・バージョンに対応するoracleasmパッケージがあります。
1.3.6.1 ULNによるASMLIBパッケージの自動インストール
Oracle Unbreakable Linux Network(ULN)に登録している場合、自動的にシステムへASMLIBパッケージをダウンロードし、インストールするこ
とができます。 ULNからASMLIBをインストールするには、次の手順を実行します。
1.
rootユーザーでログインします。
2.
次のコマンドを実行します。
# up2date -i oracleasm-support oracleasmlib oracleasm-'uname -r'
このコマンドにより、ご使用のシステムで実行中のLinuxカーネル・バージョン用のサポート・ツール、ライブラリ、カーネル・ドラ
イバがインストールされます。
参照:
ULNへの登録方法の詳細は、第2章「Linuxオペレーティング・システムのインストール」を参照してください。
1.3.6.2 ASMLIBパッケージの手動インストール
ULNのメンバーではない場合、もしくはRed Hat LinuxカーネルまたはSUSE Linuxカーネルを使用している場合は、クラスタのメンバーにする各
ノード上で、次の手順を実行します。
●
正しいoracleasmパッケージの判別
●
oracleasmパッケージのダウンロードおよびインストール
●
ASMLibの構成
1.3.6.2.1 正しいoracleasmパッケージの判別
rootとしてログインし、次のコマンドを実行して、使用しているカーネルを判別します。
uname -rm
次に例を示します。
# uname ‒rm
2.6.9-5.ELsmp i686
この例では、Intel i686 CPUを使用しているSMP(マルチプロセッサ)サーバー用の2.6.9-5カーネルです。
1.3.6.2.2 oracleasmパッケージのダウンロードおよびインストール
システムのカーネル・バージョンを判別した後、次のタスクを実行します。
1.
Webブラウザで次のURLを開きます。
22
http://www.oracle.com/technology/tech/linux/asmlib/index.html
2.
使用しているLinuxバージョンに対応するリンクを選択します。
3.
使用しているLinuxバージョンのoracleasmlibおよびoracleasm-supportパッケージをダウンロードします。
4.
使用しているカーネル・バージョンに対応するoracleasmパッケージをダウンロードします。
5.
rootとしてログインし、Oracle ASMパッケージをインストールします。
1.3.6.2.3 ASMLibの構成
rootとしてログインし、次のコマンドを入力します。
# oracleasm configure -i
指示どおりにシステムの情報を入力します。oracleasmコマンドは、デフォルトではパス/usr/sbinにあります。 oracleasm configureコマンドをiフラグなしで入力すると、現在の構成が表示されます。
参照:
構成の詳細は、第3.3.1.4.1項「ASMライブラリ・ドライバ・ソフトウェアのインストールおよび構成」を参照し
てください。
1.3.6.3 ASMの候補ディスク・パーティションのマーキング
パーティションをOracle ASMディスクの候補としてOUI側で認識させるには、rootとしてログインし、Oracle ASMで使用できるディスク・パー
ティションをマークする必要があります。 ディスクをASMで使用するようマークするには、次のコマンド構文を入力します。ASM_DISK_NAME
はOracle ASMディスク・グループの名前、candidate_diskはそのディスク・グループに割り当てるディスク・デバイスの名前です。
oracleasm createdisk ASM_DISK_NAME candidate_disk
次に例を示します。
# oracleasm createdisk data1 /dev/sdf
1.3.7 Oracle Grid Infrastructureソフトウェアのインストール
1.
インストール・メディアのルート・レベルからOUIを起動します。 次に例を示します。
./runInstaller
2.
「クラスタ用のGrid Infrastructureのインストールおよび構成」を選択し、次に「標準インストール」を選択します。 この後のイン
ストール画面で、構成情報を指示どおりに入力します。
修正スクリプトで修正できないインストール検証エラーが発生した場合は、第2章「クラスタ用Oracle Grid Infrastructureの拡張イ
ンストールのインストール前作業」でクラスタ・ノードの構成の項を参照してください。 修正が完了したら、インストールを最後ま
で続けます。
参照:
第4章「OUIを使用してOracle Grid Infrastructureをインストールするための準備」
23
24
2 クラスタ用Oracle Grid Infrastructureの拡張インストール前の作業
この章では、Oracle Universal Installer(OUI)を起動してOracle Grid Infrastructureをインストールする前に完了する必要があるシステム
の構成作業について説明します。
この章の内容は次のとおりです。
●
Linuxオペレーティング・システムのインストール
●
アップグレードのベスト・プラクティスの確認
●
インストール修正スクリプト
●
X端末を使用したリモート・システムへのログイン
●
Oracle Grid Infrastructureのグループ、ユーザーおよびパスの作成
●
ハードウェア要件の確認
●
ネットワーク要件の確認
●
ソフトウェア要件の特定
●
ソフトウェア要件の確認
●
ネットワーク・タイム・プロトコルの設定
●
Linuxのcvuqdiskパッケージのインストール
●
Intelligent Platform Management Interface(IPMI)の有効化
●
インストール時におけるSSHの自動構成
●
グリッド・インフラストラクチャ・ソフトウェア所有者ユーザー環境の構成
●
Oracle Grid Infrastructureホーム・ディレクトリの作成要件
2.1 Linuxオペレーティング・システムのインストール
注意:
オペレーティング・システムをインストールする前に、最小限のハードウェア構成を満たしていることを確認し
てください。
この項では、サポートされているLinuxディストリビューションのインストールについて説明します。 内容は次のとおりです。
●
Linuxの最小インストールの実行
25
●
デフォルトのLinuxインストールの実行
●
Oracle Validated Configuration RPMについて
●
Oracle Validated Configuration RPMのインストール
2.1.1 Linuxの最小インストールの実行
Linuxの最小インストールを実行するには、最小インストール・オプション(「Package Group Selection」から「最小」オプションを選択する
か、またはベース・パック以外のすべてのパッケージを選択解除したカスタム・インストール)を選択します。 このインストールでは、インス
トールに必要な多くのRPMが不足しています。 ただし、ご使用のプラットフォームのOracle Validated RPMをインストールすると、RPMによっ
て、Oracle ClusterwareおよびOracle Databaseの実行に最低限必要な番号のパッケージがダウンロードされます。
Unbreakable Linux Network(ULN)を使用している場合は、up2dateを使用するとOracle Validated RPMを入手できます。 ULNを使用しておら
ず、ご使用のオペレーティング・システムがRed HatまたはOracle Enterprise Linuxの場合は、次のURLからOracle Validated RPMを入手できま
す。
Enterprise Linux 4:
http://oss.oracle.com/el4/oracle-validated/
Enterprise Linux 5:
http://oss.oracle.com/el5/oracle-validated/
注意:
ULNまたはRHN(Red Hatサポート・ネットワーク)のメンバーでなく、Oracleサポートを使用している場合は、
Oracle Validated RPMパッケージ・ダウンロードと同様のスクリプトの構成手順を次のURLからダウンロードでき
ます。
https://metalink.oracle.com
「minimal Linux」を検索してください。
Oracle Grid Infrastructureのインストールには、SSHが必要です。 Linuxディストリビューションの最小インストールには、OpenSSHが含まれ
ます。 次のコマンドを入力して、SSHパッケージがインストールされていることを確認します。
# rpm -qa ¦grep ssh
SSHパッケージのリストが表示されない場合は、Linuxディストリビューションにパッケージをインストールします。
注意:
Oracle Validated RPMでは、X11クライアント・ライブラリがインストールされますが、X Window Systemサー
バー・パッケージはインストールされません。 Oracle Universal Installer、コンフィギュレーション・アシス
タント、Enterprise ManagerなどのGraphical User Interfaceを使用するには、表示をX Window Systemサー
バー・パッケージを使用するシステムに設定します。
2.1.2 デフォルトのLinuxインストールの実行
Oracle Validated RPMをインストールしない場合は、デフォルトのソフトウェア・パッケージ(RPM)が付属しているLinuxオペレーティング・
システムをインストールすることをお薦めします。 このインストールには、ほとんどの必須パッケージが含まれており、手動によるパッケージ
の依存性チェックを削減することができます。 インストール時にRPMをカスタマイズしないことをお薦めします。
26
デフォルトのインストールの詳細を参照するには、My Oracle Supportにログオンします。
https://metalink.oracle.com
「Default RPM」を検索してください。
インストール後に、ご使用のディストリビューションのシステム要件を確認し、必要なカーネル・パッケージがすべてインストールされてお
り、ご使用のディストリビューションやシステム構成に必要なその他のすべての構成タスクが完了していることを確認します。
2.1.3 Oracle Validated Configuration RPMについて
ご使用のLinuxディストリビューションがOracle Enterprise LinuxまたはRed Hat Enterprise Linuxで、Unbreakable Linuxを使用している場合
は、Unbreakable Linux Network(ULN)にあるOracle Validated Configurations Setup RPMを使用すると、ほとんどのインストール前の構成タ
スクを完了できます。
Oracle Validated Configuration RPMがインストールされている場合は、次の処理が実行されます。
●
●
●
Oracle Grid InfrastructureおよびOracle Databaseのインストールに必要な追加パッケージが自動的にインストールされます。
oracleユーザーが作成され、そのユーザーのoraInventory(oinstall)およびOSDBA(dba)グループが作成されます。
sysctl.confの設定、システム起動パラメータ、ユーザー制限およびドライバ・パラメータの値が、Oracle Validated Configurations
プログラムの推奨値に基づいて設定され検証されます。
ご使用のサーバーをUnbreakable Linux Networkに登録したり、詳しい情報を検索するには、次のURLを参照してください。
https://linux.oracle.com
Oracle Enterprise Linux 4.7以上またはOracle Enterprise Linux 5.2以上をご使用の場合、Oracle Validated RPMはインストール・メディア
に含まれています。
注意:
Oracle Validated RPMでは、ユーザー・アカウントoracleにのみカーネル・パラメータとリソース制限が設定され
ます。 複数のソフトウェア・アカウント所有者を使用する場合、他のアカウントに対してはシステム構成を手動
で行う必要があります。
また、ユーザーとグループは、次に使用可能なID番号を使用して作成されます。 Oracle Validated RPMを実行す
るクラスタ・ノード間で、サーバーのグループIDおよびユーザーIDが同一でない場合、これらのIDがノードに
よって一致しなくなる可能性があります。グループIDおよびユーザーIDが一致していないと、インストールは失
敗します。
この問題を回避するには、すべてのノード上でコマンドid userを実行します。userはソフトウェア所有者のユー
ザー・アカウントです。 すべてのノード間でグループIDまたはユーザーIDが一致していない場合は、必要に応じ
て変更して、IDを一致させます。
2.1.4 Oracle Validated Configuration RPMのインストール
次の手順を実行して、Oracle Unbreakable Linuxチャネルを登録し、Oracle Validated Configurations Setup RPMを配布するOracle Software
for Enterprise Linuxチャネルを追加します。
1.
Oracle Enterprise LinuxワークステーションまたはRed Hat Enterprise Linuxのデフォルトのインストールを完了します。
27
2.
Unbreakable Linux Network(ULN)にサーバーを登録します。 デフォルトでは、ご使用のオペレーティング・システムおよびハード
ウェアのEnterprise Linux Latestチャネルに登録されています。
3.
次のURLでULNにログインします。
https://linux.oracle.com
4.
「Systems」タブをクリックし、「System Profiles」リストで、登録したサーバーを選択します。 「System Details」ウィンドウが
開き、サーバーの登録チャネルが表示されます。
5.
「Available Channels」リストから、ご使用のLinuxのインストールに適したOracle Software for Enterprise Linuxチャネル
(Oracle Software for Enterprise Linux 4(x86_64)など)を選択します。
6.
「Subscribe」をクリックします。
7.
端末セッションから、rootで次のコマンドを入力します。
# up2date --nox --show-channels
Oracle Software for Enterprise Linuxチャネルを登録していることを示す出力が表示されます。 次に例を示します。
el4_i386_latest
el4_i386_oracle
8.
rootで端末セッションを開き、次のようにup2dateコマンドを使用してOracle Validated Configurations Setup RPMをインストール
します。
# up2date --install oracle-validated
9.
クラスタ内の他のすべてのサーバーで手順1から8を繰り返します。
注意:
Oracle Validated Configuration RPMのログ・ファイルでシステム構成の変更点を確認します。
/etc/sysconfig/oracle-validated/results/orakernel.log
2.2 アップグレードのベスト・プラクティスの確認
注意:
構成の変更を開始する前に、既存のデータベースのバックアップを必ず作成してください。
既存のOracleインストールがある場合は、バージョン番号、パッチおよびその他の構成情報を記録して、既存のインストール用のアップグレー
ド手順を確認します。 インストールを進める前に、アップグレードに関するOracleドキュメントを確認し、その後の処理を確認します。
Oracle ASM 11gリリース1(11.1)は、クラスタ内の個別のノードに対して、または複数のノードに対してまとめてローリング・アップグレード
を行うことで、Oracle RACデータベースを停止することなくアップグレードできます。 ただし、Oracle ASMを使用しているクラスタにスタンド
アロン・データベースがある場合、アップグレードする前にそのスタンドアロン・データベースを停止する必要があります。 Oracle ASM 10gか
らアップグレードする場合は、Oracle ASMクラスタ全体を停止してアップグレードを行う必要があります。
自動ストレージ管理(ASM)がすでにインストールされている場合は、Oracleのアップグレードに関するドキュメントを確認してください。 今
回のリリースでは、Oracle ASMホームの場所が変更されています。したがって、ストレージ管理を簡略化またはカスタマイズするためには、他
28
の構成の変更も検討することが必要な場合があります。
オペレーティング・システムのローリング・アップグレード時に、そのオペレーティング・システムの両方のバージョンが、使用している
Oracle Databaseリリースで保証されている場合は、異なるオペレーティング・システム・バイナリを使用できます。
注意:
オペレーティング・システムの複数のバージョンが混在できるのは、アップグレード時間が数時間の場合のみで
す。 Oracleでは、長時間に渡ってオペレーティング・システムのバージョンが混在するクラスタを運用すること
はできません。 Oracle Grid InfrastructureおよびOracle Real Application Clustersを、同じクラスタの異な
るプラットフォーム(チップ・アーキテクチャが異なるサーバー)で実行することはできません。
最新のソフトウェア更新情報や、アップグレードの前後、互換性、相互運用性に関するベスト・プラクティスについては、「Oracle Upgrade
Companion」を参照してください。 「Oracle Upgrade Companion」は、My Oracle SupportのNote 785351.1で参照できます。
https://metalink.oracle.com
2.3 インストール修正スクリプト
Oracle Clusterware 11gリリース2では、インストールの最小要件を満たしていない場合はOracle Universal Installer(OUI)によって検知さ
れ、要件を満たしていないシステム構成手順を実行するために、修正スクリプトと呼ばれるシェル・スクリプト・プログラムが作成されます。
OUIによって不完全な作業が検知されると、修正スクリプト(runfixup.sh)が生成されます。 「修正および再チェック」ボタンをクリックした
後で、修正スクリプトを実行できます。
CVUで、インストールの前に修正スクリプトを生成することもできます。
参照:
cluvfyコマンドの使用の詳細は、『Oracle Clusterware管理およびデプロイメント・ガイド』を参照してくださ
い。
修正スクリプトによって、次の作業が実行されます。
●
●
必要に応じて、インストールを正しく実行するために必要な値を次のカーネル・パラメータに設定します。
❍
共有メモリのパラメータ
❍
オープン・ファイル記述子とUDP送受信のパラメータ
Oracle Inventory(中央インベントリ)ディレクトリに権限を設定します。
インストールに使用するユーザー・アカウントのために、クラスタ・メンバー・ノード間でSSHを構成している場合は、インストール前にクラス
タ構成を確認し、インストールを開始する前にオペレーティング・システムの変更を行うための修正スクリプトを生成できます。
これを行うには、インストールを実行するユーザー・アカウントでログインし、runcluvfyコマンドがあるステージング領域に移動し、次のコマ
ンド構文を使用します。nodeは、クラスタ・メンバーにするノードをカンマで区切ったリストです。
$ ./runcluvfy.sh stage -pre crsinst -n node -fixup -verbose
たとえば、node1とnode2の2ノードがあるクラスタを構成する場合は、次のコマンドを入力します。
$ ./runcluvfy.sh stage -pre crsinst -n node1,node2 -fixup -verbose
2.4 X端末を使用したリモート・システムへのログイン
29
インストール中は、rootまたは他のユーザーとして、リモート端末上で作業を行う必要があります。 リモート表示できるようにする必要がある
ユーザー・アカウントに対して、次の手順を実行します。
注意:
別のユーザー(oracleなど)としてログインする場合は、そのユーザーでもこの手順を繰り返します。
リモート表示を可能にするには、次のいずれかの手順を実行します。
●
ソフトウェアをX Window SystemワークステーションまたはX端末からインストールする場合は、次の手順を実行します。
1.
X端末(xterm)などのローカル端末セッションを開始します。
2.
ソフトウェアを別のシステムにインストールし、そのシステムをX11ディスプレイとして使用する場合は、次の構文を使用
してコマンドを入力し、リモート・ホストがローカルのXサーバーでXアプリケーションを表示できるようにします。
# xhost + RemoteHost
RemoteHost は完全修飾されたリモートのホスト名です。 次に例を示します。
# xhost + somehost.example.com
somehost.example.com being added to the access control list
3.
ソフトウェアをローカル・システムにインストールしない場合は、sshコマンドを使用してソフトウェアをインストールす
るシステムに接続します。
# ssh -Y RemoteHost
RemoteHost は完全修飾されたリモートのホスト名です。 -Yフラグ(Yes)により、元のX11ディスプレイに対する完全な
アクセス権がリモートのX11クライアントに付与されます。次に例を示します。
# ssh -Y somehost.example.com
4.
rootユーザーでログインしていない場合は、次のコマンドを入力してユーザーをrootに切り替えます。
$ su - root
password:
#
●
Xサーバー・ソフトウェアがインストールされているPCまたはその他のシステムからソフトウェアをインストールする場合は、次の手
順を実行します。
注意:
この手順の詳細は、ご使用のXサーバーのマニュアルを参照してください。 ご使用のXサーバー・ソフト
ウェアによっては、異なった順序で作業を実行する必要があります。
1.
Xサーバー・ソフトウェアを起動します。
2.
リモート・ホストがローカル・システムでXアプリケーションを表示できるようにXサーバー・ソフトウェアのセキュリティ
を設定します。
3.
ソフトウェアをインストールするリモート・システムに、クラスタ用Oracle Grid Infrastructureソフトウェアの所有者
(grid、oracle)として接続し、システムでX端末(xterm)などの端末セッションを開始します。
30
4.
リモート・システム上で別の端末セッションを開き、rootユーザーとしてリモート・システムにログインします。プロンプ
トが表示されたら、rootとしてスクリプトを実行できます。
2.5 Oracle Grid Infrastructureのグループ、ユーザーおよびパスの作成
rootとしてログインし、次の手順を実行して、Oracle InventoryグループおよびOracle Grid Infrastructureのソフトウェア所有者を検索また
は作成します。
●
Oracle InventoryおよびOracle Inventoryグループの存在の確認
●
Oracle Inventoryが存在しない場合のOracle Inventoryグループの作成
●
Oracle Grid Infrastructureユーザーの作成
●
Oracleベース・ディレクトリのパスの作成
●
役割区分によるオペレーティング・システム権限グループおよびユーザーの作成
●
標準的なグループ、ユーザーおよびパスの作成例
●
ロール割当てをしたグループ、ユーザーおよびパスの作成例
注意:
グリッド・インフラストラクチャのインストールでは、Oracle Clusterwareおよび自動ストレージ管理の両方が
インストールされます。 Oracle Clusterwareのインストール所有者と自動ストレージ管理のインストール所有者
は、分離することができなくなりました。
2.5.1 Oracle InventoryおよびOracle Inventoryグループの存在の確認
システムに初めてOracleソフトウェアをインストールする場合は、OUIによってoraInst.locファイルが作成されます。 このファイルに、Oracle
Inventoryグループのグループ名(デフォルトはoinstall)およびOracle中央インベントリ・ディレクトリのパスが示されます。 oraInst.locファ
イルには、次のような内容が含まれます。
inventory_loc=central_inventory_location
inst_group=group
この場合、central_inventory_locationはOracle中央インベントリの場所、groupは中央インベントリへの書込み権限を持つグループの名前です
(OINSTALLグループ権限)。
既存のOracle中央インベントリがある場合は、必ずすべてのOracleソフトウェア・インストールで同じOracle Inventoryを使用し、インストー
ルに使用するすべてのOracleソフトウェア・ユーザーがこのディレクトリへの書込み権限を持つようにします。
システムにOracle中央インベントリ・ディレクトリ(oraInventory)があるかどうかを確認するには、次のようにします。
次のコマンドを入力します。
# more /etc/oraInst.loc
oraInst.locファイルが存在する場合、このコマンドの出力結果は、次のようになります。
inventory_loc=/u01/app/oracle/oraInventory
inst_group=oinstall
31
前述の出力例の意味は次のとおりです。
●
●
inventory_locグループは、Oracle Inventoryの場所を示します。
inst_groupパラメータは、Oracle Inventoryグループの名前(この例では、oinstall)を示します。
grep groupname /etc/groupコマンドを使用して、Oracle Inventoryグループとして指定されたグループがまだシステムに存在していることを
確認します。 次に例を示します。
$ grep oinstall /etc/group
oinstall:x:1000:crs,oracle
2.5.2 Oracle Inventoryが存在しない場合のOracle Inventoryグループの作成
oraInst.locファイルが存在しない場合は、次のコマンドを入力して、Oracle Inventoryグループを作成します。
# /usr/sbin/groupadd -g 1000 oinstall
このコマンドによって、グループID番号が1000のoinstallグループが作成されます。OINSTALLグループのメンバーには、Oracle中央インベントリ
(oraInventory)への書込み権限が付与されます。
oraInventoryグループが存在しない場合、デフォルトでは、クラスタ用グリッド・インフラストラクチャのインストール所有者のプライマリ・
グループが、oraInventoryグループとして表示されます。 使用するOracleソフトウェア・インストール所有者のすべてが、このグループをプラ
イマリ・グループとして利用できることを確認します。
注意:
クラスタ内のすべてのノードで、グループIDおよびユーザーIDが一致している必要があります。 使用するグルー
プIDおよびユーザーIDが各クラスタ・メンバー・ノードで使用できることを確認し、クラスタ用グリッド・イン
フラストラクチャの各インストール所有者のプライマリ・グループが、同じ名前とグループIDであることを確認
します。
2.5.3 Oracle Grid Infrastructureユーザーの作成
次の場合は、Oracle Grid Infrastructureのソフトウェア所有者を作成する必要があります。
●
●
Oracleソフトウェア所有者ユーザーが存在しない場合(たとえば、システムへOracleソフトウェアを初めてインストールする場合)。
Oracleソフトウェア所有者ユーザーは存在するが、他のグループに所属する別のオペレーティング・システム・ユーザーを使用して、
Grid InfrastructureとOracle Databaseの管理権限を分離する場合。
Oracleドキュメントでは、Oracle Grid Infrastructureソフトウェアのインストールのみを所有するために作成されたユーザーをgrid
ユーザーと呼びます。 すべてのOracleインストールを所有するために作成されたユーザー、またはOracle Databaseのインストールの
みを所有するために作成されたユーザーをoracleユーザーと呼びます。
2.5.3.1 Oracleソフトウェアのインストール所有者に対する制限の理解
異なるOracle Databaseホームに対して複数のOracleソフトウェア所有者を使用する場合は、Oracle Grid Infrastructure(Oracle Clusterware
およびOracle ASM)ソフトウェアに対して別途ソフトウェア所有者を作成し、その所有者でOracle Grid Infrastructureをインストールするこ
とをお薦めします。
Oracle DatabaseまたはOracle RACをインストールする予定がある場合は、Oracle Grid InfrastructureおよびOracle Databaseのインストー
ル・ユーザーを別々に作成することをお薦めします。 使用するインストール所有者が1つの場合は、管理タスクを実行するときに、
$ORACLE_HOMEの値を管理対象のインスタンス(ASM、Grid Infrastructureホーム内、またはOracleホームのデータベース)に変更する必要があ
ります。そのコマンド構文の例は次のようになります。ここでgridはOracle Grid Infrastructureホームです。
32
ORACLE_HOME=/u01/app/11.2.0/grid; export ORACLE_HOME
sqlplus、lsnrctl、asmcmdのいずれかのコマンドを使用してインスタンスを管理しようとしたときに、$ORACLE_HOMEが別のバイナリ・パスに設定
されていると、エラーが発生します。 データベース・ホームからsrvctlを起動する場合、$ORACLE_HOMEが設定されていないと、srvctlは失敗し
ます。 ただし、グリッド・インフラストラクチャ・ホームでsrvctlを使用している場合は、$ORACLE_HOMEが無視されるため、Oracleホームのパ
スはsrvctlコマンドに影響しません。 $ORACLE_HOMEは必ず、管理対象のインスタンスに変更する必要があります。
異なるOracleソフトウェアのインストール環境に対して、ユーザーを別々に作成し、オペレーティング・システム権限グループを別々に作成す
るためにOracleソフトウェア所有者を別々に作成する場合は、そのユーザーのプライマリ・グループとしてOracle中央インベントリ・グループ
(oraInventoryグループ)が必要なことに注意してください。 このグループのメンバーはOracle中央インベントリ(oraInventory)ディレクト
リに対する書込み権限を所有します。また、様々なOracle Clusterwareリソース、OCRキー、DBAが書込み権限を必要とするOracle Clusterware
ホーム内のディレクトリに対する権限やその他の必要な権限が付与されます。 Oracleドキュメントのコード例では、このグループをoinstallで表
しています。
それぞれのOracleソフトウェア所有者は、同じ中央インベントリ・グループのメンバーであることが必要です。 Oracleインストールに対して、
複数の中央インベントリを持つことはできません。 あるOracleソフトウェア所有者が別の中央インベントリ・グループを持っている場合、その
中央インベントリは破損することがあります。
注意:
クラスタ用グリッド・インフラストラクチャのインストールでは、グリッド・ホームを、Oracleベース・ディレ
クトリ、Oracle Databaseインストール所有者のOracleホーム・ディレクトリ、インストール所有者のホーム・
ディレクトリのいずれの下にも配置しないでください。 インストール中に、グリッド・ホームへのパスの所有権
がrootに変更されます。 この変更により、他のインストールで権限エラーが発生します。
2.5.3.2 Oracleソフトウェア所有者ユーザーの存在の確認
oracleやgridというOracleソフトウェア所有者ユーザーが存在するかどうかを確認するには、次のようなコマンドを入力します(この場合、
oracleの存在を確認します)。
# id oracle
ユーザーが存在する場合、このコマンドの出力結果は、次のようになります。
uid=501(oracle) gid=501(oinstall) groups=502(dba),503(oper)
既存ユーザーを使用するか、別のユーザーを作成するかを決定します。 ユーザーIDおよびグループIDの番号は、クラスタ・メンバー・ノードに
する各ノード上で同一である必要があります。
既存ユーザーを使用する場合は、ユーザーのプライマリ・グループがOracle Inventoryグループ(oinstall)であることを確認します。 Oracle
Databaseのインストールにこのユーザー・アカウントを使用し、Oracle ClusterwareおよびOracle ASMバイナリの所有者は別のユーザー・アカ
ウントにする場合は、OracleアカウントがASM用のOSDBAグループ(グループのメンバーは、Oracle ASM記憶域への書込みを許可されます)にす
る予定のグループのメンバーであることを確認します。
2.5.3.3 Oracle Grid InfrastructureのOracleソフトウェア所有者ユーザーの作成または変更
Oracleソフトウェア所有者ユーザー(oracle、grid)が存在しない、または新しいOracleソフトウェア所有者ユーザーが必要な場合は作成しま
す。 既存のユーザー・アカウントを使用する場合は、各クラスタ・メンバー・ノードでユーザーIDおよびグループIDが一致していることを確認
します。 次の手順では、Oracleソフトウェア所有者の名前としてgridが、OSASMグループとしてdbaが使用されています。 異なる管理権限に対
して個別のシステム権限グループを作成するには、ユーザーを作成する前に、グループ作成を行います(第2.5.5項「役割区分によるオペレー
ティング・システム権限グループおよびユーザーの作成」)。
1.
既存のシステム権限グループ(この例ではdba)がある場合にグリッド・インストール所有者アカウントを作成し、グループのメン
バーにOracle ASMインスタンスを管理するためのSYSASM権限を付与する場合、次のようなコマンドを入力します。
# /usr/sbin/useradd -u 1100 -g oinstall -G dba grid
前述のコマンドの意味は、次のとおりです。
33
❍
-uオプションは、ユーザーIDを指定します。システムによって自動的にユーザーID番号を生成するようにできるため、この
コマンド・フラグの使用は任意です。 ただし、Oracle Grid Infrastructure用に作成するユーザーのユーザーID番号は、
この後のインストール前の作業で必要になるため、記録しておく必要があります。また、クラスタのすべてのノードで、こ
のユーザーのユーザーIDを一致させる必要があります。
❍
-gオプションは、プライマリ・グループを指定します。プライマリ・グループは、Oracle Inventoryグループである必要が
あります。 たとえば、oinstallです。
❍
-Gオプションには、セカンダリ・グループ(この例ではdba)を指定します。
セカンダリ・グループにはOSASMグループを含める必要があります。このグループのメンバーは、Oracle ASMインスタンス
を管理するためのSYSASM権限を付与されます。 SYSASMシステム権限を付与するグループは1つのグループのみ指定で
き、データベース管理者グループとは別のグループか、またはOSASMグループとOSDBAグループとして1つのグループを指定
できます。この場合、グループのメンバーにはSYSASMおよびSYSDBA権限が付与され、Oracle ASMインスタンスとOracle
Databaseインスタンスの両方を管理するためのシステム権限が与えられます。 コード例では、このグループはasmadmin
です。
このユーザーを、Oracle Grid InfrastructureとOracle Databaseインストールの両方の所有者として作成する場合は、ASM
用のOSDBAグループをユーザーのセカンダリ・グループにする必要があります。 コード例では、このグループ名はasmdba
です。 ASM用のOSDBAグループのメンバーには、Oracle ASM記憶域へのアクセス権限が付与されます。 Oracle ASM記憶域に
アクセスするデータベースが複数になる場合は、ASM用のOSDBAグループを作成するか、または、ASM用のOSDBAグループとし
て、すべてのデータベースに対するOSDBAグループと同じグループを使用する必要があります。
usermodコマンドを使用して、既存のユーザーID番号とグループを変更します。
次に例を示します。
# id oracle
uid=501(oracle) gid=501(oracle) groups=501(oracle)
# /usr/sbin/usermod -u 1001 -g 1000 -G 1000,1001 oracle
# id oracle
uid=1001(oracle) gid=1000(oinstall) groups=1000(oinstall),1001(oracle)
2.
Oracle Grid Infrastructureを所有するユーザーのパスワードを設定します。 次に例を示します。
# passwd grid
3.
他のすべてのクラスタ・ノードでこの手順を繰り返します。
注意:
既存ユーザーを使用および変更する前に、必要に応じてシステム管理者に連絡してください。
各ノードでUIDおよびGIDのデフォルトを使用しないことをお薦めします。グループIDやユーザーIDが、ノードに
よって一致しなくなることがあるためです。 そのかわりに、共通で割り当てるグループIDとユーザーIDを用意
し、グループとユーザーの作成または変更を行う前に、いずれのノードでもそのIDが使用されていないことを確
認しておきます。
2.5.4 Oracleベース・ディレクトリのパスの作成
グリッド・インストール所有者のOracleベース・ディレクトリは、Oracle ASMおよびOracle Clusterwareに関する診断ログ、管理ログ、および
その他のログが格納される場所です。
Oracleソフトウェアのパスとして、Oracle Optimal Flexible Architecture(OFA)ガイドラインに準拠したOracle Clusterwareホームのパスを
作成した場合は、Oracleベース・ディレクトリを作成する必要はありません。 OUIでOFA準拠のパスが検出されると、そのパスにOracleベース・
ディレクトリが作成されます。
34
OUIがパスをOracleソフトウェアのパスとして認識するには、u0[1-9]/appという形式にし、oraInventory(oinstall)グループのすべてのメン
バーによる書込みを可能にする必要があります。 OracleベースのOptimal Flexible Architectureパスは、/u01/app/userです。userは、Oracle
ソフトウェア・インストールの所有者です。
クラスタ用グリッド・インフラストラクチャとOracle Databaseソフトウェアの所有者が別になっている場合は特に、Oracleベース・パスを手動
で作成することをお薦めします。そうすることで、ログ・ファイルを分けることができます。
次に例を示します。
# mkdir -p /u01/app/grid
# chown -R grid:oinstall /u01/app/grid
# chmod -R 775 /u01/app/grid
# mkdir -p /u01/app/oracle
# chown -R oracle:oinstall /u01/app/oracle
注意:
クラスタ用Oracle Grid Infrastructureバイナリをクラスタ・ファイル・システムに配置することはサポートさ
れていません。
共有のOCFS2の場所にOracle RACホームをインストールする場合は、OCFS2を、書込み可能な共有mmapがサポート
されているバージョン1.4.1以上にアップグレードする必要があります。
2.5.5 役割区分によるオペレーティング・システム権限グループおよびユーザーの作成
役割区分によるOracle ASMの権限構成は、Oracle ASMインストール環境に対する管理アクセス権限と、他のOracleインストール環境に関連付け
られた管理権限グループおよびユーザーとを分離するためのグループおよびユーザーを持つ構成です。 管理アクセス権は、個々のオペレーティ
ング・システム・グループのメンバーシップによって付与され、インストール権限は、Oracleをインストールするたびにインストール所有者を
変えることで付与されます。
注意:
この構成はオプションで、Oracleソフトウェアに対するユーザー・アクセスを、様々な管理者ユーザーの役割に
応じて制限するための構成です。
必要な場合、記憶域およびデータベース層におけるすべてのシステム権限について、1つの管理ユーザーと1つのグループをオペレーティング・
システム認証で使用できるように、オペレーティング・システム・ユーザー権限を割り当てることができます。
たとえば、すべてのOracleソフトウェアのインストール所有者をoracleユーザーとし、Oracle Clusterware、自動ストレージ管理、サーバー上の
すべてのOracle Databaseに対するすべてのシステム権限、およびインストール所有者としてのすべての権限をメンバーに付与されるグループを
oinstallとすることができます。 このグループは、Oracle Inventoryグループであることも必要です。
少なくとも2つのグループを使用することをお薦めします。メンバーに管理システム権限が付与されるシステム権限グループと、個別のインス
トール権限であるOINSTALL権限が付与されるインストール所有者グループ(oraInventoryグループ)です。 クラスタ検証ユーティリティなど
のOracleツールでデフォルトを使用しやすくするため、すべてのシステム権限とoraInventoryへの書込み権限を1つのオペレーティング・システ
ム・グループに付与する場合は、そのグループ名をoinstallにする必要があります。
●
役割区分によるグループおよびユーザーの作成の概要
●
役割区分によるデータベース・グループおよびユーザーの作成
注意:
ネットワーク情報サービス(NIS)などのディレクトリ・サービスを使用する場合の詳細は、オペレーティング・
システムのドキュメントを参照してください。
35
2.5.5.1 役割区分によるグループおよびユーザーの作成の概要
この項では、ユーザーおよびグループを作成し、役割区分を使用する方法の概要を説明します。 これらのグループおよびユーザーを作成するに
は、rootでログインします。
●
役割区分を使用したOracleインストールのためのユーザー
●
役割区分によるインストールのためのデータベース・グループ
●
役割区分によるインストールのためのASMグループ
2.5.5.1.1 役割区分を使用したOracleインストールのためのユーザー
個別のソフトウェア・インストール所有者を作成するすべてのインストールで、次のオペレーティング・システム・グループとユーザーを作成
することをお薦めします。
各Oracleソフトウェア製品を所有する1つのソフトウェア所有者(通常、データベース・ソフトウェアの所有者ユーザーはoracle、Oracle Grid
Infrastructureの所有者ユーザーはgrid)。
システムに初めてOracleソフトウェアをインストールするときは、少なくとも1つのソフトウェア所有者を作成する必要があります。 このユー
ザーがOracle Grid InfrastructureソフトウェアのOracleバイナリを所有します。このユーザーをOracle DatabaseまたはOracle RACのバイナリ
所有者にすることもできます。
Oracleソフトウェア所有者には、プライマリ・グループとしてOracle Inventoryグループが必要です。これによって、それぞれのOracleソフト
ウェア・インストールの所有者が中央インベントリ(oraInventory)に書込みできるようになり、OCRとOracle Clusterwareリソース権限が適切
に設定されます。 データベース・ソフトウェア所有者には、セカンダリ・グループ(作成する場合)としてOSDBAグループとOSOPERグループが
必要です。 Oracleドキュメントでは、Oracleソフトウェア所有者ユーザーをoracleユーザーとします。
ソフトウェア所有者ユーザーを個別に作成し、各Oracleソフトウェア・インストールの所有者にすることをお薦めします。 特に、システムに複
数のデータベースをインストールする場合にお薦めします。
Oracleドキュメントでは、Oracle Grid Infrastructureバイナリを所有するために作成されたユーザーをgridユーザーとします。 このユーザー
は、Oracle ClusterwareとOracle自動ストレージ管理の両方のバイナリを所有します。
参照:
OSDBAグループ、OSASMグループおよびOSOPERグループと、SYSDBA権限、SYSASM権限およびSYSOPER権限の詳細
は、『Oracle Clusterware管理およびデプロイメント・ガイド』および『Oracle Database管理者ガイド』を参照
してください。
2.5.5.1.2 役割区分によるインストールのためのデータベース・グループ
Oracle Databaseをインストールするには、次のオペレーティング・システム・グループおよびユーザーが必要です。
●
OSDBAグループ(通常、dba)
システムに初めてOracle Databaseソフトウェアをインストールする場合は、このグループを作成する必要があります。 このグループ
のオペレーティング・システム・ユーザー・アカウントには、データベースの管理権限(SYSDBA権限)があります。 Oracle ASMイ
ンスタンスに個別のOSDBA、OSOPERおよびOSASMグループを作成しない場合は、SYSOPERおよびSYSASM権限を持つオペレーティング・
システム・ユーザー・アカウントが、このグループのメンバーである必要があります。 Oracleのコード例では、このグループにdba
という名前を使用します。 OSASMグループとして個別のグループを指定しない場合は、定義するOSDBAグループもデフォルトでOSASMと
なります。
デフォルト(dba)以外のグループ名を指定するには、拡張インストール・タイプを選択してソフトウェアをインストールするか、ま
たはこのグループのメンバーではないユーザーとしてOracle Universal Installer(OUI)を起動する必要があります。 この場合、
OUIによって、グループ名の指定を求めるプロンプトが表示されます。
36
以前は、OSDBAグループのメンバーにOracle ASMインスタンスのSYSASM権限(ディスク・グループのマウントおよびマウント解除を
含む)が付与されていました。 11g リリース2の場合、別々のオペレーティング・システム・グループがOSDBAとOSASMグループに指定
されているときには、この権限が付与されません。 同じグループが、OSDBAとOSASMの両方に使用されている場合は、権限がそのまま
保持されます。
●
Oracle DatabaseのOSOPERグループ(通常、oper)
これは、オプションのグループです。 制限付きのデータベース管理権限(SYSOPER権限)を別のグループのオペレーティング・シス
テム・ユーザーに付与する場合に、このグループを作成します。 OSDBAグループのメンバーには、デフォルトで、SYSOPER権限に
よって付与されるすべての権限もあります。
OSOPERグループを使用してデフォルトのdbaグループより少ない権限でデータベース管理者グループを作成するには、拡張インストー
ル・タイプを選択してソフトウェアをインストールするか、またはdbaグループのメンバーでないユーザーとしてOUIを起動する必要
があります。 この場合、OUIによって、グループ名の指定を求めるプロンプトが表示されます。 このグループの標準的な名前はoper
です。
2.5.5.1.3 役割区分によるインストールのためのASMグループ
SYSASMは、Oracle ASMストレージ管理権限をSYSDBAから切り離すことができる新しいシステム権限です。 Oracle自動ストレージ管理11gリ
リース2(11.2)では、OSASMグループに指定されたオペレーティング・システム・グループと、OSDBAグループに指定されたグループが同じ場合
を除き、データベースOSDBAグループのメンバーにSYSASM権限は付与されません。
Oracle ASMに対する権限のオペレーティング・システム認証グループとして、別のオペレーティング・システム・グループを選択します。 OUI
を起動する前に、Oracle ASM用に次のグループとユーザーを作成します。
●
Oracle自動ストレージ管理グループ(通常、asmadmin)
これは、必須のグループです。 Oracle ASM管理者用とOracle Database管理者用の管理権限グループを別にする場合、このグループは
個別のグループとして作成します。 Oracleドキュメントでは、メンバーに権限が付与されたオペレーティング・システム・グループ
をOSASMグループと呼びます。コード例には、この権限を付与するために特別に作成された、asmadminと呼ばれるグループがありま
す。
システムに複数のデータベースがあり、複数のOSDBAグループがあるために、各データベースに別々のSYSDBA権限を付与できる場合
は、OSASMグループを別途作成し、データベース・ユーザーとは別のユーザーにグリッド・インフラストラクチャ・インストール
(Oracle ClusterwareおよびOracle ASM)を所有させる必要があります。 Oracle ASMでは、複数のデータベースがサポートされま
す。
OSASMグループのメンバーは、SQLを使用して、SYSASMとしてOracle ASMインスタンスに接続できます。このとき、オペレーティン
グ・システム認証が使用されます。 SYSASM権限では、ディスク・グループのマウント、マウント解除およびその他の記憶域管理作
業が許可されます。 SYSASM権限には、RDBMSインスタンスに対するアクセス権限はありません。
●
ASMデータベース管理者グループ(ASM用のOSDBA、通常はasmdba)
ASMデータベース管理者グループ(ASM用のOSDBA)のメンバーには、Oracle ASMによって管理されるファイルへの読取りおよび書込み
アクセス権限が付与されます。 グリッド・インフラストラクチャ・インストール所有者とすべてのOracle Databaseソフトウェア所有
者は、このグループのメンバーである必要があります。また、Oracle ASMによって管理されるファイルへアクセスするデータベースに
対するOSDBAメンバーシップを持つすべてのユーザーが、ASM用のOSDBAグループのメンバーである必要があります。
●
ASMオペレータ・グループ(ASM用のOSOPER、通常はasmoper)
これは、オプションのグループです。 Oracle ASMインスタンスの起動と停止を含む、制限付きのOracle ASMインスタンスの管理権限
(ASM用のSYSOPER権限)を別のグループのオペレーティング・システム・ユーザーに付与する場合に、このグループを作成します。
OSASMグループのメンバーには、デフォルトで、ASM用のSYSOPER権限によって付与されるすべての権限もあります。
ASMオペレータ・グループを使用してデフォルトのasmadminグループより少ない権限でASM管理者グループを作成するには、拡張イン
ストール・タイプを選択してソフトウェアをインストールする必要があります。この場合、OUIによって、グループ名の指定を求める
プロンプトが表示されます。 コード例では、このグループはasmoperです。
ASM用のOSOPERグループが必要な場合は、クラスタ用グリッド・インフラストラクチャ・ソフトウェアの所有者がこのグループのメン
37
バーである必要があります。
2.5.5.2 役割区分によるデータベース・グループおよびユーザーの作成
次の項では、必要なオペレーティング・システム・ユーザーおよびグループを作成する方法について説明します。
●
データベース・インストールの準備のためのOSDBAグループの作成
●
データベース・インストールのためのOSOPERグループの作成
●
OSASMグループの作成
●
ASMのためのOSOPERグループの作成
●
Oracle ASMへのデータベース・アクセスのためのASM用のOSDBAグループの作成
●
Oracleソフトウェア所有者ユーザーを作成するタイミング
●
Oracleソフトウェア所有者ユーザーの存在の確認
●
Oracleソフトウェア所有者ユーザーの作成
●
既存のOracleソフトウェア所有者ユーザーの変更
●
他のクラスタ・ノードでの同一データベース・ユーザーおよびグループの作成
2.5.5.2.1 データベース・インストールの準備のためのOSDBAグループの作成
Oracle Databaseをインストールしてグリッド・インフラストラクチャ環境で使用するときに、次のような場合はOSDBAグループを作成する必要
があります。
●
●
OSDBAグループが存在しない場合(たとえば、システムへOracle Databaseソフトウェアを初めてインストールする場合)。
OSDBAグループが存在するが、新しいOracle Database環境では、データベースの管理権限を別のグループのオペレーティング・システ
ム・ユーザーに付与する場合。
OSDBAグループが存在しない場合または新しいOSDBAグループが必要な場合は、次の手順で作成します。 既存のグループですでに使用されていな
いかぎり、グループ名にはdbaを使用します。
# /usr/sbin/groupadd -g 1200 dba
2.5.5.2.2 データベース・インストールのためのOSOPERグループの作成
OSOPERグループを作成する必要があるのは、制限付きのデータベース管理権限(SYSOPERオペレータ権限)を持つオペレーティング・システム・
ユーザーのグループを指定する場合のみです。 ほとんどの環境では、OSDBAグループを作成するのみで十分です。 次の場合にOSOPERグループを
使用するには、このグループを作成する必要があります。
●
●
OSOPERグループが存在しない場合(たとえば、システムへOracle Databaseソフトウェアを初めてインストールする場合)
OSOPERグループが存在するが、新しいOracle環境で、データベースのオペレータ権限を別のグループのオペレーティング・システム・
ユーザーに付与する場合
38
新しいOSOPERグループが必要な場合は、次の手順で作成します。 既存のグループですでに使用されていないかぎり、グループ名にはoperを使用
します。
# /usr/sbin/groupadd -g 1201 oper
2.5.5.2.3 OSASMグループの作成
OSASMグループが存在しない場合または新しいOSASMグループが必要な場合は、次の手順で作成します。 既存のグループですでに使用されていな
いかぎり、グループ名にはasmadminを使用します。
# /usr/sbin/groupadd -g 1000 asmadmin
2.5.5.2.4 ASMのためのOSOPERグループの作成
データベース管理者などのオペレーティング・システム・ユーザーのグループを指定し、Oracle ASM記憶域の起動と停止を含む、Oracle ASM記
憶域層に対する制限付きの管理権限を付与する場合には、ASM用のOSOPERグループを作成します。 ほとんどの環境では、OSASMグループを作成す
るのみで十分です。インストールのインタビュー時に、そのグループをASM用のOSOPERグループとして指定します。
新しいASM用のOSOPERグループが必要な場合は、次の手順で作成します。 次の手順では、既存のグループですでに使用されていないかぎり、グ
ループ名にはasmoperを使用します。
# /usr/sbin/groupadd -g 1301 asmoper
2.5.5.2.5 Oracle ASMへのデータベース・アクセスのためのASM用のOSDBAグループの作成
Oracle ASMインスタンスへのアクセスを可能にするには、ASM用のOSDBAグループを作成する必要があります。 これは、OSASMとOSDBAが異なるグ
ループである場合に必要です。
ASM用のOSDBAグループが存在しない場合、または新しいASM用のOSDBAグループが必要な場合は、次の手順で作成します。 既存のグループですで
に使用されていないかぎり、グループ名にはasmdbaを使用します。
# /usr/sbin/groupadd -g 1300 asmdba
2.5.5.2.6 Oracleソフトウェア所有者ユーザーを作成するタイミング
次の場合は、Oracleソフトウェア所有者ユーザーを作成する必要があります。
●
●
Oracleソフトウェア所有者ユーザーが存在するが、新しいOracle Database環境では、別のオペレーティング・システム・ユーザー
(異なるグループ・メンバーシップを持つ)を使用して、このグループにデータベースの管理権限を付与する場合。
Oracle Grid Infrastructureに対してgridなどのOracleソフトウェア所有者が作成されており、Oracle Databaseソフトウェアに対し
てoracleなどの別のOracleソフトウェア所有者を作成する場合。
2.5.5.2.7 Oracleソフトウェア所有者ユーザーの存在の確認
oracleやgridというOracleソフトウェア所有者ユーザーが存在するかどうかを確認するには、次のようなコマンドを入力します(この場合、
oracleの存在を確認します)。
# id oracle
ユーザーが存在する場合、このコマンドの出力結果は、次のようになります。
uid=501(oracle) gid=501(oinstall) groups=502(dba),503(oper)
既存ユーザーを使用するか、別のユーザーを作成するかを決定します。 既存ユーザーを使用する場合は、ユーザーのプライマリ・グループが
39
Oracle Inventoryグループであり、そのグループが適切なOSDBAおよびOSOPERグループのメンバーであることを確認します。 詳細は、次のいず
れかの項を参照してください。
●
既存のユーザーを変更するには、「既存のOracleソフトウェア所有者ユーザーの変更」を参照してください。
●
ユーザーを作成するには、次の項を参照してください。
注意:
既存ユーザーを使用および変更する前に、必要に応じてシステム管理者に連絡してください。
各ノードのUIDおよびGIDのデフォルトを使用しないことをお薦めします。グループIDやユーザーIDが、ノードに
よって一致しなくなることがあるためです。 そのかわりに、共通で割り当てるグループIDとユーザーIDを用意
し、グループとユーザーの作成または変更を行う前に、いずれのノードでもそのIDが使用されていないことを確
認しておきます。
2.5.5.2.8 Oracleソフトウェア所有者ユーザーの作成
Oracleソフトウェア所有者ユーザーが存在しない、または新しいOracleソフトウェア所有者ユーザーが必要な場合は、次の手順で作成します。
既存のユーザーですでに使用されていないかぎり、ユーザー名にはoracleを使用します。
1.
次のコマンドを入力して、oracleユーザーを作成します。
# /usr/sbin/useradd -u 1101 -g oinstall -G dba,asmdba oracle
前述のコマンドの意味は、次のとおりです。
❍
❍
❍
2.
-uオプションは、ユーザーIDを指定します。システムによって自動的にユーザーID番号を生成するようにできるため、この
コマンド・フラグの使用は任意です。 ただし、oracleユーザーID番号は、この後のインストール前の作業で必要になるた
め、記録しておく必要がります。
-gオプションは、プライマリ・グループを指定します。プライマリ・グループは、oinstallなどのOracle Inventoryグルー
プである必要があります。
-Gオプションは、セカンダリ・グループを指定します。セカンダリ・グループには、OSDBAグループとASM用のOSDBAグルー
プ、必要に応じてASM用のOSOPERグループを含める必要があります。 たとえば、dba、asmdba、またはdba、asmdba、
asmoperなどです。
oracleユーザーのパスワードを設定します。
# passwd oracle
2.5.5.2.9 既存のOracleソフトウェア所有者ユーザーの変更
oracleユーザーは存在するが、プライマリ・グループがoinstallではない場合、またはユーザーが適切なOSDBAまたはASM用OSDBAグループのメン
バーではない場合は、次のコマンドで変更します。 -gオプションでプライマリ・グループを指定し、-Gオプションで必要なセカンダリ・グルー
プを指定します。
# /usr/sbin/usermod -g oinstall -G dba,asmdba oracle
他のすべてのクラスタ・ノードでこの手順を繰り返します。
2.5.5.2.10 他のクラスタ・ノードでの同一データベース・ユーザーおよびグループの作成
40
注意:
次の手順は、ローカル・ユーザーおよびグループを使用している場合にのみ実行する必要があります。 NISなど
のディレクトリ・サービスで定義されたユーザーおよびグループを使用している場合、各クラスタ・ノードの
ユーザーおよびグループはすでに同一です。
Oracleソフトウェア所有者ユーザー、Oracle Inventory、OSDBAグループおよびOSOPERグループは、すべてのクラスタ・ノードに存在し、また同
一である必要があります。 同一のユーザーおよびグループを作成するには、ユーザーおよびグループを作成したノードで割り当てられたユー
ザーIDおよびグループIDを確認してから、他のクラスタ・ノードで同じ名前とIDを持つユーザーおよびグループを作成する必要があります。
既存のユーザーIDおよびグループIDの確認
gridまたはoracleユーザーのユーザーID(UID)と、既存のOracleグループのグループID(GID)を確認するには、次の手順を実行します。
1.
次のコマンドを入力します(ここでは、oracleユーザーのユーザーIDを確認します)。
# id oracle
このコマンドの出力結果は、次のようになります。
uid=502(oracle) gid=501(oinstall) groups=502(dba),503(oper),506(asmdba)
2.
表示された情報から、ユーザーのユーザーID(UID)および所属するグループのグループID(GID)を特定します。 これらのID番号が
クラスタの各ノードで同じであることを確認します。 ユーザーのプライマリ・グループはgidの後に表示されます。 セカンダリ・グ
ループはgroupsの後に表示されます。
他のクラスタ・ノードでのユーザーおよびグループの作成
他のクラスタ・ノードでユーザーおよびグループを作成するには、各ノードで次の手順を繰り返します。
1.
次のクラスタ・ノードへrootでログインします。
2.
次のコマンドを入力して、oinstall、asmadminおよびasmdbaグループを作成します。また、必要に応じて、asmoper、dbaおよび
operグループを作成します。 -gオプションを使用して、各グループに正しいGIDを指定します。
# /usr/sbin/groupadd -g 1000 oinstall
# /usr/sbin/groupadd -g 1100 asmadmin
# /usr/sbin/groupadd -g 1200 dba
# /usr/sbin/groupadd -g 1201 oper
# /usr/sbin/groupadd -g 1300 asmdba
# /usr/sbin/groupadd -g 1301 asmoper
注意:
グループがすでに存在している場合は、必要に応じてgroupmodコマンドを使用してそのグループを変更
します。 このノードのグループに、同じグループIDを使用できない場合、すべてのノードの/etc/group
ファイルを表示し、どのノードでも使用できるグループIDを特定します。 すべてのノードのグループID
が同じになるように、グループIDを変更する必要があります。
3.
oracleユーザーまたはグリッド・インフラストラクチャ(grid)ユーザーを作成するには、次のようなコマンドを入力します(この例
では、oracleユーザーを作成します)。
# /usr/sbin/useradd -u 1100 -g oinstall -G asmdba,dba oracle
前述のコマンドの意味は、次のとおりです。
❍
-uオプションは、ユーザーIDを指定します。ユーザーIDは、前の項で特定したユーザーIDである必要があります。
41
❍
-gオプションは、プライマリ・グループを指定します。プライマリ・グループは、oinstallなどのOracle Inventoryグルー
プである必要があります。
❍
-Gオプションは、セカンダリ・グループを指定します。セカンダリ・グループには、OSASM、OSDBA、ASM用のOSDBA、OSOPER
またはASM用のOSOPERグループを含めることができます。 次に例を示します。
■
■
グリッド・インストール所有者: OSASM(asmadmin)。メンバーはSYSASM権限を付与されます。
SYSASMアクセス権限のないOracle Databaseインストール所有者: OSDBA(dba)、ASM用のOSDBA(asmdba)、
ASM用のOSOPER(asmoper)。
注意:
ユーザーがすでに存在している場合は、必要に応じてusermodコマンドを使用して変更しま
す。 すべてのノードのユーザーに、同じユーザーIDを使用できない場合、すべてのノードの/
etc/passwdファイルを表示して、どのノードでも使用できるユーザーIDを特定します。 すべて
のノードのユーザーにそのIDを指定する必要があります。
4.
ユーザーのパスワードを設定します。 次に例を示します。
# passwd oracle
5.
「グリッド・インフラストラクチャ・ソフトウェア所有者ユーザー環境の構成」で説明するとおり、各ユーザーに対してユーザー環境
の構成を行います。
2.5.6 標準的なグループ、ユーザーおよびパスの作成例
Oracle Inventoryグループ(oinstall)を作成し、OSDBA、OSASM、ASM用のOSDBAグループとして1つのグループ(dba)を作成する方法の例を次に
示します。 また、適切なグループ・メンバーシップを持つ、グリッド・インフラストラクチャ・ソフトウェア所有者(grid)と1つのOracle
Database所有者(oracle)を作成する方法も示します。 また、この例は、適切な権限を持つ、OFA構造に準拠したOracleベース・パスの構成方法
も示しています。
# groupadd -g 1000 oinstall
# groupadd -g 1200 dba
# useradd -u 1100 -g oinstall -G dba grid
# useradd -u 1101 -g oinstall -G dba oracle
# mkdir -p /u01/app/11.2.0/grid
# chown -R grid:oinstall /u01
# mkdir /u01/app/oracle
# chown oracle:oinstall /u01/app/oracle
# chmod -R 775 /u01/
これらのコマンドを実行すると、次のグループとユーザーができます。
●
●
●
●
●
Oracle中央インベントリ・グループ、つまりoraInventoryグループ(oinstall)。 プライマリ・グループが中央インベントリ・グルー
プであるメンバーは、oraInventoryディレクトリに書込みできるOINSTALL権限を付与されます。
OSASM、OSDBA、ASM用のOSDBAおよびASM用のOSOPERグループとして使用される1つのシステム権限グループ(dba)。メンバーは、
Oracle Clusterware、Oracle ASM、Oracle Databaseを管理するためのSYSASMおよびSYSDBA権限を付与され、さらにOracle ASM記憶域
にアクセスするためのSYSASMおよびASM用のOSOPER権限を付与されます。
クラスタ用Oracle Gridのインストール所有者(grid)。プライマリ・グループはoraInventoryグループ、セカンダリ・グループは
OSASMグループ。
Oracle Database所有者(oracle)。プライマリ・グループはoraInventoryグループ、セカンダリ・グループはOSDBAグループ。
775権限でgrid:oinstallが所有する/u01/app。 この所有権と権限によって、OUIはパス/u01/app/oraInventoryにOracle Inventoryディ
レクトリを作成できるようになります。
42
●
●
●
rootが所有する/u01。
775権限でgrid:oinstallが所有する/u01/app/11.2.0/grid。 これらの権限はインストールに必要であり、インストール・プロセスで変更
されます。
775権限でoracle:oinstallが所有する/u01/app/oracle。
2.5.7 ロール割当てをしたグループ、ユーザーおよびパスの作成例
Optimal Flexible Architecture(OFA)デプロイメントに準拠した、ロール割当てをしたグループおよびユーザーを作成する方法の例を、次に
示します。
# groupadd -g 1000 oinstall
# groupadd -g 1100 asmadmin
# groupadd -g 1200 dba1
# groupadd -g 1250 dba2
# groupadd -g 1300 asmdba
# groupadd -g 1301 asmoper
# useradd -u 1100 -g oinstall -G asmadmin,asmdba,asmoper grid
# useradd -u 1101 -g oinstall -G dba1,asmdba oracle1
# useradd -u 1102 -g oinstall -G dba2,asmdba oracle2
# mkdir -p /u01/app/grid
# mkdir -p /u01/app/11.2.0/grid
# chown -R grid:oinstall /u01
# mkdir -p /u01/app/oracle1
# chown oracle1:oinstall /u01/app/oracle1
# mkdir -p /u01/app/oracle2
# chown oracle2:oinstall /u01/app/oracle2
# chmod -R 775 /u01
これらのコマンドを実行すると、次のグループとユーザーができます。
●
●
●
●
●
●
●
●
Oracle中央インベントリ・グループ、つまりoraInventoryグループ(oinstall)。プライマリ・グループが中央イベントリ・グループ
であるメンバーは、oraInventoryディレクトリへの書込み権限を付与されます。
個別のOSASMグループ(asmadmin)。メンバーは、Oracle ClusterwareおよびOracle ASMを管理するためのSYSASM権限を付与されま
す。
個別のASM用OSDBAグループ(asmdba)。メンバーは、grid、oracle1、oracle2の他、Oracle ASMへのアクセス権を付与されたユー
ザーです。
個別のASM用のOSOPERグループ(asmoper)。メンバーは、gridの他、Oracle ASMインスタンスの起動と停止を含む、制限付きの
Oracle ASMの管理権限が付与されたユーザーです。
クラスタ用Oracle Gridのインストールの所有者(grid)。プライマリ・グループはoraInventoryグループ、セカンダリ・グループは
OSASM(asmadmin)、ASM用のOSDBAグループ(asmdba)およびASM用のOSOPERグループ。
2つの異なるデータベースに対する、2つの別々のOSDBAグループ(dba1とdba2)。それぞれのデータベースに対して、別々のSYSDBA
権限を設定します。
Oracleデータベース・バイナリの所有権を分けるための、2つのOracle Databaseソフトウェア所有者(oracle1とoracle2)。プライマ
リ・グループはoraInventoryグループ。セカンダリ・グループは、それぞれのデータベースに対するOSDBAグループ(dba1または
dba2)と、ASM用のOSDBAグループ(asmdba)。
grid:oinstallが所有する、OFA準拠のマウント・ポイント/u01(インストール前)。
●
775権限でoracle1:oinstallが所有する、Oracleベース/u01/app/oracle1。
●
775権限でoracle2:oinstallが所有する、Oracleベース/u01/app/oracle2。
43
●
●
775(drwxdrwxr-x)権限でgrid:oinstallが所有する、グリッド・ホーム/u01/app/11.2.0/grid。 これらの権限はインストールに必要で
あり、インストール・プロセスでroot:oinstallの755権限(drwxr-xr-x)に変更されます。
775権限でgrid:oinstallが所有する、グリッド・インストール所有者のOracleベース/u01/app/grid。インストール・プロセスで755権限
に変更されます。 グリッド・インストール所有者のOracleベース・ディレクトリは、Oracle ASMの診断および管理ログ・ファイルが
格納される場所です。 インストール中に、OUIによって、パス/u01/app/oraInventoryにOracle Inventoryディレクトリが作成されま
す。 このパスの所有者はgrid:oinstallのままで、他のOracleソフトウェア所有者による中央イベントリへの書込みを可能にします。
2.6 ハードウェア要件の確認
●
●
●
同じチップ・アーキテクチャのサーバーを選択します。同じクラスタ・スタックで32-bitおよび64-bitのOracleソフトウェア・バー
ジョンを実行することはできません。
サーバーが実行レベル3または実行レベル5で起動されていることを確認します。
各サーバーで、同じオペレーティング・システム・バイナリが実行されていることを確認します。 Oracle Grid Infrastructureイン
ストールとOracle Real Application Clusters(Oracle RAC)では、同一クラスタ内でハードウェアが異なるサーバーを使用できま
す。
各システムは、次の最小ハードウェア要件を満たしている必要があります。
●
Oracle RACを使用しないクラスタ用グリッド・インフラストラクチャの場合は、1.5GB以上の物理RAM。クラスタ用グリッド・インフラ
ストラクチャのインストール後にOracle RACをインストールする場合は、2.5GB以上の物理RAM。
●
1024 x 768以上のディスプレイ解像度。Oracle Universal Installer(OUI)を正しく表示するため。
●
次の表に示す使用可能なRAMの倍数と同等のスワップ領域
表2-1 必要なスワップ領域(RAMの倍数)
使用可能なRAM
必要なスワップ領域
1GBから2GB
RAMサイズの1.5倍
2GBから16GB
RAMサイズと同等
16GBを超える
16GB
注意:
LinuxのHugepages機能では、メモリー・マップ・ファイルを使用して、ラージ・ページ表にはスワップで
きないメモリーが割り当てられます。 HugePagesを有効にする場合は、スワップ領域を計算する前に、
HugePagesに割り当てられるメモリー分を使用可能なRAMから差し引く必要があります。
スワップ領域のサイズが足りないというOUIエラーが発生したにもかかわらず、スワップ領域はここに記
載された要件を満たしている場合は、エラーを無視してかまいません。
●
●
/tmpディレクトリに1GBの領域。
クラスタ用グリッド・インフラストラクチャ・ホーム(グリッド・ホーム)に、4.5GB以上の領域。ここには、Oracle Clusterwareお
よび自動ストレージ管理(ASM)のファイルとログ・ファイルが格納されます。
44
●
Oracleベースに4GBの領域の割当て(Linux x86に対してOracle Databaseをインストールする場合)。
●
Oracleベースに4.6GBのディスク領域の割当て(Linux x86_64プラットフォームに対してOracle Databaseをインストールする場合)。
Oracle Databaseのインストールでは、自動バックアップを構成する場合は、高速リカバリ領域用に追加の領域(ファイル・システムまたは自動
ストレージ管理ディスク・グループ)が必要です。
参照:
『Oracle Databaseストレージ管理者ガイド』
システムが各要件を満たしていることを確認するには、次の手順を実行します。
1.
次のコマンドを入力して、物理RAMのサイズを確認します。
# grep MemTotal /proc/meminfo
システムに搭載されている物理RAMのサイズが要件のサイズより少ない場合、次の手順に進む前にメモリーを増設する必要がありま
す。
2.
次のコマンドを入力して、構成されたスワップ領域のサイズを確認します。
# grep SwapTotal /proc/meminfo
追加のスワップ領域を構成する(必要な場合)方法については、ご使用のオペレーティング・システムのマニュアルを参照してくださ
い。
3.
次のコマンドを入力して、/tmpディレクトリで使用できる領域の大きさを確認します。
❍
# df -k /tmp
このコマンドでは1KBブロック単位でディスク領域が表示されます。 ほとんどのシステムでは、-hフラグ付きのdfコマンド(df -h)を
使用して、「24G」や「10M」など、判読可能な書式で出力を表示できます。 /tmpディレクトリで使用できるディスク領域が1GB未満
の場合(1048576 1k-blocks未満)、次のいずれかの手順を完了します。
4.
❍
必要な領域を確保するために、/tmpディレクトリから不要なファイルを削除します。
❍
/tmpディレクトリを含むファイル・システムを拡張します。 ファイル・システムの拡張については、必要に応じてシステ
ム管理者に連絡してください。
次のコマンドを入力して、システムのRAMおよびディスク・スワップ領域の空き領域の大きさを確認します。
❍
# free
サーバーでのユーザー・アクティビティに応じて、使用可能なRAMおよびスワップ領域は変化します。
5.
次のコマンドを入力して、すべてのプラットフォームのシステム・アーキテクチャでソフトウェアを実行できるかどうかを確認しま
す。
# uname -m
45
注意:
このコマンドの出力結果には、プロセッサ・タイプが表示されます。 64-bitのアーキテクチャにインス
トールする場合、出力は「x86_64」になります。
2.7 ネットワーク要件の確認
次の項で、クラスタ用Oracle Grid Infrastructure環境に必要なネットワーク・ハードウェアおよびインターネット・プロトコル(IP)・アド
レスがあるかを確認します。
●
ネットワーク・ハードウェア要件
●
IPアドレス要件
●
グリッド・ネーミング・サービスへのドメイン委任のためのDNS構成
●
手動によるIPアドレスの構成例
●
グリッド・ネーミング・サービスの構成例
●
ネットワーク・インタフェース構成のオプション
●
ネーム・サービス・キャッシュ・デーモンの有効化
注意:
Oracle RAC環境でサポートされるネットワーク・プロトコルおよびハードウェアの最新情報は、次のMy Oracle
Support Webサイトの「Certify」ページを参照してください。WebサイトのURLは次のとおりです。
https://metalink.oracle.com
2.7.1 ネットワーク・ハードウェア要件
次にネットワーク構成要件を示します。
●
各ノードには2つ以上のネットワーク・アダプタまたはネットワーク・インタフェース・カード(NIC)が必要です。パブリック・ネッ
トワーク・インタフェース用とプライベート・ネットワーク・インタフェース(インターコネクト)用のネットワーク・アダプタで
す。
パブリック・ネットワークまたはプライベート・ネットワーク用に複数のNICを使用する場合は、NICボンディングを使用することをお
薦めします。 インストール中に各インタフェースがパブリック・インタフェースまたはプライベート・インタフェースとして定義さ
れるため、パブリック・ネットワークおよびプライベート・ネットワークには別々のボンディングを使用します。
●
各ネットワークのネットワーク・アダプタに関連付けるパブリック・インタフェース名は、すべてのノードで同じである必要があり、
ネットワーク・アダプタに関連付けるプライベート・インタフェース名もすべてのノードで同じである必要があります。
たとえば、2ノードのクラスタのネットワーク・アダプタの場合、パブリック・インタフェースとしてnode1ではeth0、node2では
eth1というようには構成できません。 パブリック・インタフェース名は同じである必要があります。このため、両方のノードでパブ
リックとしてeth0を構成する必要があります。 同じネットワークのアダプタでは、プライベート・インタフェースも同様に構成する
必要があります。 eth1がnode1のプライベート・インタフェースであれば、node2のプライベート・インタフェースもeth1である必
要があります。
●
パブリック・ネットワークの場合、各ネットワーク・アダプタではTCP/IPがサポートされている必要があります。
46
●
プライベート・ネットワークでは、インターコネクトにTCP/IPをサポートする高速ネットワーク・アダプタおよびスイッチ(最低要
件: 1ギガビット・イーサネット)を使用して、ユーザー・データグラム・プロトコル(UDP)がサポートされている必要があります。
注意:
UDPはOracle RAC用のデフォルトのインターコネクト・プロトコルで、TCPはOracle Clusterware用のイン
ターコネクト・プロトコルです。 インターコネクト用のスイッチを使用する必要があります。 専用のス
イッチを使用することをお薦めします。
インターコネクト用のトークン・リングまたはクロスオーバー・ケーブルはサポートされていません。
●
●
プライベート・ネットワークでは、指定されているすべてのインターコネクト・インタフェースのエンドポイントがネットワークで確
実にアクセス可能である必要があります。 ノードはすべてのプライベート・ネットワーク・インタフェースに接続されている必要が
あります。 pingを使用して、インターコネクト・インタフェースが接続可能であるかどうかをテストできます。
インストール時に、OUIがクラスタ・ノードで検出するネットワーク・インタフェースごとに計画された使用方法を指定するように求
められます。 各インタフェースをパブリック・インタフェースまたはプライベート・インタフェースとして指定し、Oracle
ClusterwareとOracle RACの両方に同じプライベート・インタフェースを使用する必要があります。
NIC障害に備えて、別々のインタフェースを共通のインタフェースに結合することで冗長性を提供できますが、Oracle Clusterwareと
Oracle RAC用に別々のインタフェースを作成することはお薦めしません。 プライベート・インターコネクトに複数のNICを使用する場
合は、NICボンディングを使用することをお薦めします。 複数のプライベート・インタフェースによってロード・バランシングが提供
されますが、インタフェースが結合されないかぎり、フェイルオーバーされないことに注意してください。
プライベートとして指定したサブネット上のIPアドレスは、クラスタ・メンバー・ノードのプライベートIPアドレスとして割り当てら
れます。 hostsディレクトリでこれらのアドレスを手動で構成する必要はありません。
2.7.2 IPアドレス要件
インストールを開始する前に、各ノードにインタフェースが2つ以上構成されている必要があります。1つはプライベートIPアドレス用、もう1つ
はパブリックIPアドレス用です。
IPアドレスは、次のいずれかのオプションで構成できます。
●
静的なパブリック・ノード・アドレスと動的に割り当てられるIPを使用するOracleグリッド・ネーミング・サービス(GNS)。クラス
タ内のOracle Clusterwareの一部として構成されたマルチキャストのドメイン・ネーム・サーバーで、Oracle ClusterwareがVIPアド
レスを提供したり、DHCPサーバーがVIPアドレスの割当てと解決を行う場合に利用されます。 GNSを使用する場合は、次のものが必要
です。
❍
❍
●
クラスタのために、パブリック・ネットワーク上で実行されているDHCPサービス。
DHCP上の十分なアドレス。これにより、各ノードの仮想IPとしてIPアドレスを1つずつ、そしてクラスタの単一クライアン
ト・アクセス名(SCAN)によって使用される、クラスタのIPアドレスを3つ提供します。
ネットワーク管理者が、ネットワーク・ドメイン・ネーム・サーバー(DNS)で各ノードに対して割り当てる静的アドレス。 このオプ
ションを選択する場合は、クラスタの変更時にネットワーク管理の更新を依頼する必要があります。
2.7.2.1 グリッド・ネーミング・サービスのIPアドレス要件
グリッド・ネーミング・サービス(GNS)を有効にする場合、クラスタへの名前解決要求はGNSに委任され、GNSによってGNS仮想IPアドレスでリ
スニングされます。 このアドレスは、インストール前にDNSドメインに定義します。 DNSは、クラスタ名(クラスタに委任されたサブドメイン
内のすべての名前)の解決要求がGNSに委任されるように構成する必要があります。要求がドメインに届くと、GNSによってその要求が処理さ
れ、要求された名前に対する適切なアドレスとともに応答が返されます。
GNSを使用するには、インストールの前に、サブドメインのDNS解決をクラスタに指示するDNS参照をDNS管理者が設定しておく必要があります。
GNSを有効にする場合は、クラスタで必要な仮想IPアドレスをクラスタによって動的に割り当てるために、パブリック・ネットワーク上にDHCP
サービスが必要です。
47
2.7.2.2 手動で構成する場合のIPアドレス要件
GNSを有効にしない場合、各ノードのパブリックIPアドレスおよび仮想IPアドレスは、静的アドレスであることが必要です。このアドレスは、イ
ンストール前に各ノードで構成しておく必要がありますが、現在未使用である必要があります。 パブリックIPアドレスと仮想IPアドレスは、同
じサブネット内にある必要があります。
インストールのインタビュー時にプライベートとして指定したインタフェース上のプライベート・サブネットに含まれるプライベートIPアドレ
スが、Oracle Clusterwareによって管理されます。
クラスタには、次のアドレスが構成されている必要があります。
●
各ノードのパブリックIPアドレス
●
各ノードの仮想IPアドレス
●
ドメイン・ネーム・サーバー(DNS)で、3つのアドレスにラウンド・ロビン方式で解決する(推奨)か、または少なくとも1つのアド
レスを解決するよう構成した、単一クライアント・アクセス名(SCAN)。
単一クライアント・アクセス名(SCAN)は、クラスタへのサービス・アクセスをクライアントに提供するために使用される名前です。 SCANは、
特定のノードではなくクラスタ全体に関連付けされているため、クライアントの再構成を必要とせずに、クラスタでノードを追加または削除す
ることを可能にします。 また、データベースに場所の独立性がもたらされるため、クライアント構成は特定のデータベースがどのノードで実行
されているかに依存しません。 クライアントは引き続き、以前のリリースと同じ方法でクラスタにアクセスできますが、クラスタにアクセスす
るクライアントではSCANの使用をお薦めします。
SCANアドレスは、仮想IPアドレスおよびパブリックIPアドレスと同じサブネット上にある必要があります。 高い可用性とスケーラビリティを実
現するために、3つのIPアドレスにラウンド・ロビン方式で解決されるように、SCANを構成することをお薦めします。 SCAN名の先頭は、数字に
はできません。 インストールを成功させるためには、SCANは少なくとも1つのアドレスに解決される必要があります。
注意:
SCAN VIPアドレスの構成は、hostsファイルで行わないことを強くお薦めします。 SCAN VIPにはDNS解決を使用し
ます。 SCANの解決にhostsファイルを使用すると、1つのIPアドレスへの解決しかできず、SCANアドレスは1つの
みになってしまいます。
参照:
ネットワーク・アドレスの詳細は、付録D「ネットワーク・アドレスの理解」を参照してください。
2.7.3 グリッド・ネーミング・サービスへのドメイン委任のためのDNS構成
GNSを使用する場合、グリッド・インフラストラクチャのインストール前に、GNSが提供するサブドメイン(クラスタ・メンバー・ノード)に対
する名前解決要求がGNSへ送信されるよう、ドメイン・ネーム・サーバー(DNS)を構成しておく必要があります。
委任を使用して、GNS名前解決要求を送信するように、DNSを構成する必要があります。 次の手順を実行して、委任の構成を行います。
1.
DNSに、GNS仮想IPアドレスのエントリを作成します。 次に例を示します。
gns-server.clustername.com: 192.0.2.1
指定したアドレスは、ルーティング可能である必要があります。
2.
委任されたドメインに対して、DNSに次のようなエントリを作成します。clusterdomain.example.comは、委任するサブドメインで
す。
clusterdomain.example.com: NS gns-server.clustername.com
48
GNSを使用する場合、クラスタ内のノードのresolve.confを構成し、社内のDNSサーバーに解決可能なネーム・サーバーのエントリを追
加する必要があります。 オプションの試行回数(リトライ回数)とオプションのタイムアウト(指数バックオフ)を組み合わせた合
計タイムアウト時間の構成は、30秒以下にすることをお薦めします。 たとえば、xxx.xxx.xxx.42とxxx.xxx.xxx.15がネットワーク内
で有効なネーム・サーバーのアドレスである場合、/etc/resolv.confに次のようなエントリを入力します。
options attempts: 2
options timeout: 1
search clusterdomain.example.com example.com
nameserver xxx.xxx.xxx.42
nameserver xxx.xxx.xxx.15
/etc/nsswitch.confによって、ネーム・サービスの参照順序が制御されます。 一部のシステム構成では、ネットワーク情報システム
(NIS)によってOracle SCANアドレス解決に問題が発生することがあります。 nisエントリは、検索リストの最後に配置することをお
薦めします。 次に例を示します。
/etc/nsswitch.conf
hosts: files dns nis
2.7.4 グリッド・ネーミング・サービスの構成例
GNSを使用する場合は、GNSのVIPアドレスに静的なIPアドレスを指定し、その静的なGNSのIPアドレスにサブドメインを委任する必要がありま
す。
クラスタにノードが追加されると、社内のDHCPサーバーによって、これらのノードに動的にアドレスが提供されます。 これらのアドレスは自動
的にGNSに登録され、GNSによってサブドメイン内で、GNSに登録されたクラスタ・ノード・アドレスの解決が行われます。
アドレスの割当てと構成はGNSによって自動的に行われるため、これ以上の構成は必要ありません。 Oracle Clusterwareによって、クラスタに
対してノードが追加または削除されるときに、動的なネットワーク構成が行われます。 参考までに例を示します。
2ノードのクラスタで、GNSのVIPが定義されている場合、インストール後に次のような構成を2ノードのクラスタに対して行います。クラスタ名
はmycluster、GNSの親ドメインはexample.com、サブドメインはgrid.example.comです。IPアドレスの192.0.2はクラスタのパブリックIPアドレ
ス・ネットワークを表し、192.168.0はプライベートIPアドレス・サブネットを表します。
表2-2 グリッド・ネーミング・サービスのネットワーク例
ID
ホーム・
ノード
GNS VIP
なし
Node 1 Public
ノード1
Node 1 VIP
ノード1
Node 1 Private
ノード1
node1
node1-priv
Node 2 Public
ノード2
node2
node2脚注1
アドレスの
割当て元
ホスト・ノード
指定された名前
種類
アドレス
Oracle Clusterwareにより
選択
mycluster-gns.example.
com
仮想
192.0.2.1
ネットワー
ク管理者が
固定
DNS
node1
node1脚注1
パブリック
192.0.2.101
固定
GNS
node1-vip
仮想
192.0.2.104
DHCP
GNS
プライベー
ト
192.168.0.1
固定または
DHCP
GNS
パブリック
192.0.2.102
固定
GNS
Oracle Clusterwareにより
選択
49
解決方法
Node 2 VIP
ノード2
Node 2 Private
ノード2
SCAN VIP 1
Oracle Clusterwareにより
選択
node2-vip
仮想
192.0.2.105
DHCP
GNS
プライベー
ト
192.168.0.2
固定または
DHCP
GNS
node2
node2-priv
なし
Oracle Clusterwareにより
選択
mycluster-scan.grid.
example.com
仮想
192.0.2.201
DHCP
GNS
SCAN VIP 2
なし
Oracle Clusterwareにより
選択
mycluster-scan.grid.
example.com
仮想
192.0.2.202
DHCP
GNS
SCAN VIP 3
なし
Oracle Clusterwareにより
選択
mycluster-scan.grid.
example.com
仮想
192.0.2.203
DHCP
GNS
脚注1
ノードのホスト名が、ホスト上で使用されているプライベートIPアドレスやVIPアドレスなど、複数のアドレスに解決される場合がありま
す。
2.7.5 手動によるIPアドレスの構成例
GNSを使用しない場合は、インストールの前に、パブリックIPアドレス、仮想IPアドレスおよびプライベートIPアドレスを構成する必要がありま
す。 また、pingコマンドを実行し、デフォルトのゲートウェイにアクセスできることも確認してください。 デフォルトのゲートウェイを検出
するには、routeコマンドを使用します(オペレーティング・システムのヘルプを参照)。
たとえば、各ノードに1つのパブリック・インタフェースと1つのプライベート・インタフェースがある2ノードのクラスタの場合に、3つのIPア
ドレスのいずれかに解決されるSCANドメイン・アドレスがDNSに定義してあるとすると、ネットワーク・インタフェースには、次の表に示す構成
が考えられます。
表2-3 手動によるネットワークの構成例
アドレス
アドレ
スの割
当て元
解決方法
パブリック
192.0.2.101
固定
DNS
node1-vip
仮想
192.0.2.104
固定
DNSおよびhosts
ファイル
node1
node1-priv
プライベート
192.168.0.1
固定
DNSおよびhosts
ファイル、また
はなし
node2
node2脚注1
パブリック
192.0.2.102
固定
DNS
node2-vip
仮想
192.0.2.105
固定
DNSおよびhosts
ファイル
ID
ホーム・ノー
ド
ホスト・ノード
指定された名前
種類
Node 1 Public
ノード1
node1
node1脚注1
Node 1 VIP
ノード1
Node 1 Private
ノード1
Node 2 Public
ノード2
Node 2 VIP
ノード2
Oracle Clusterwareにより選
択
Oracle Clusterwareにより選
択
50
node2
node2-priv
プライベート
192.168.0.2
固定
DNSおよびhosts
ファイル、また
はなし
なし
Oracle Clusterwareにより選
択
mycluster-scan
仮想
192.0.2.201
固定
DNS
SCAN VIP 2
なし
Oracle Clusterwareにより選
択
mycluster-scan
仮想
192.0.2.202
固定
DNS
SCAN VIP 3
なし
Oracle Clusterwareにより選
択
mycluster-scan
仮想
192.0.2.203
固定
DNS
Node 2 Private
ノード2
SCAN VIP 1
脚注1
ノード・ホスト名が、複数のアドレスに解決される場合があります。
インターコネクト用にプライベート名を指定する必要はありません。 インターコネクト用に名前解決が必要な場合は、hostsファイルかDNSでプ
ライベートIP名を構成できます。 ただしOracle Clusterwareでは、インストール中にプライベート・インタフェースとして定義されたインタ
フェース(eth1など)と、プライベート・サブネットに使用されるサブネットに、インターコネクト・アドレスが割り当てられます。
SCANが解決されるアドレスはOracle Clusterwareによって割り当てられるため、特定のノードには固定されません。 VIPのフェイルオーバーが
有効になるように、前述の表で示した構成では、SCANアドレスと、両方のノードのパブリック・アドレスおよびVIPアドレスが同一のサブネット
(192.0.2)上に定義されています。
注意:
すべてのホスト名はRFC 952標準(英数字を許可)に準拠している必要があります。 アンダースコア(_)を使用
するホスト名は使用できません。
2.7.6 ネットワーク・インタフェース構成のオプション
選択する正確なネットワーク構成は、構成するクラスタのサイズおよび使用方法と、必要な可用性のレベルによって異なります。
動作保証されているネットワーク接続ストレージ(NAS)をOracle RAC用に使用し、このストレージにイーサネットベースのネットワークを介し
て接続する場合は、NAS I/O用に3つ目のネットワーク・インタフェースが必要です。この場合、3つの別々のインタフェースを使用しないと、負
荷によってパフォーマンスと安定性の問題が発生します。
2.7.7 ネーム・サービス・キャッシュ・デーモンの有効化
NASデバイスまたはNFSマウントを使用しているOracle RACデータベースでのパブリック・ネットワーク障害を防ぐには、ネーム・サービス・
キャッシュ・デーモン(nscd)を有効にします。
システムの再起動時にnscdがロードされるよう設定されているか確認するには、コマンドchkconfig --list nscdを入力します。 次に例を示しま
す。
# chkconfig --list nscd
nscd
0:off 1:off 2:off 3:on 4:off 5:off 6:off
この例でnscdは、実行レベル3がオンで、実行レベル5はオフです。nsdcは、実行レベル3と実行レベル5の両方をオンにする必要があります。
nsdcの実行レベル3と実行レベル5の両方をオンにするには、次のコマンドのいずれかをrootとして入力します。
Red HatおよびOracle Enterprise Linux 4および5の場合
51
# chkconfig --level 35 nscd on
SUSE SLES10および11の場合
# chkconfig --level 35 nscd on
現在のセッションでnscdを起動するには、次のコマンドをrootとして入力します。
# service nscd start
新しい設定でnscdを再起動するには、次のコマンドをrootとして入力します。
# service nscd restart
2.8 ソフトウェア要件の特定
インストールする製品に応じて、次のオペレーティング・システム・ソフトウェアがシステムにインストールされていることを確認します。 こ
れらの要件を確認するには、「ソフトウェア要件の確認」を参照してください。
OUIによって、ご使用のシステムが示されたオペレーティング・システムの要件を満たしていることを確認する検証が実行されます。 これらの
検証が正常に完了するように、OUIを起動する前に要件を確認してください。
Linuxオペレーティング・システムをインストールするときは、最小インストールを実行する場合を除いて、デフォルトのソフトウェア・パッ
ケージ(RPM)もインストールすることをお薦めします。その際は、インストールの実行手順に従って、Oracleソフトウェアに必要なすべての
パッケージをインストールしてください。
デフォルトのオペレーティング・システムのインストール時にRPMをカスタマイズしないことをお薦めします。 デフォルトのインストールに
は、ほとんどの必須パッケージが含まれており、手動によるパッケージの依存性チェックを削減することができます。
注意:
オペレーティング・システムのアップグレード時を除いて、クラスタ・メンバー間で異なるオペレーティング・
システム・バージョンを実行することはできません。 各オペレーティング・システムがサポートされている場合
でも、同じクラスタのメンバーで異なるオペレーティング・システム・バージョンのバイナリを実行することは
できません。
サポートされているLinuxバージョンおよびリリース時における要件を次に示します。
●
x86(32-bit)Linuxプラットフォームでのソフトウェア要件
●
x86-64 Linuxプラットフォームでのソフトウェア要件
2.8.1 x86(32-bit)Linuxプラットフォームでのソフトウェア要件
Oracle Grid Infrastructureをインストールする場合は、カーネル・バージョンとパッケージが、表2-4および表2-5に示されたものであること
を確認します。
Oracle Grid Infrastructureに加えてOracle DatabaseまたはOracle RACをインストールする場合は、表2-6を確認し、使用する予定の機能のた
めに追加パッケージをインストールする必要があるかどうかを確認します。
52
注意:
Asianux Server、Oracle Enterprise LinuxおよびRed Hat Enterprise Linuxの場合、カーネル・バージョンごと
のシステム要件は同じです。 具体的には次のとおりです。
Asianux 2、Oracle Enterprise Linux 4およびRed Hat Enterprise Linux 4の要件は同じです。
Asianux Server 3、Oracle Enterprise Linux 5およびRed Hat Enterprise Linux 5の要件は同じです。
表2-4 Linux x86(32-bit)オペレーティング・システムのカーネル要件
Linuxディストリビューション
要件
Asianuxディストリビューション
Enterprise Linuxディストリビューション
Red Hat Enterprise Linuxディストリビューション
SUSE Enterprise Linuxディストリビューション
●
Asianux 2、カーネル2.6.9以上
●
Asianux Server 3、カーネル2.6.18以上
●
Enterprise Linux 4 Update 7、カーネル2.6.9以上
●
Enterprise Linux 5 Update 2、カーネル2.6.18以上
●
Red Hat Enterprise Linux 4 Update 7、カーネル2.6.9以上
●
Red Hat Enterprise Linux 5 Update 2、カーネル2.6.18以上
●
SUSE 10、カーネル2.6.16.21以上
●
SUSE 11、カーネル2.6.27.19以上
表2-5 Linux x86(32-bit)Grid InfrastructureおよびOracle RACのパッケージ要件
項目
要件
Asianux 2、Enterprise Linux 4およびRed Hat Enterprise
Linux 4
次のバージョン以上のパッケージがインストールされている必要があります。
binutils-2.15.92.0.2
compat-libstdc++-33.2.3
elfutils-libelf-0.97
elfutils-libelf-devel-0.97
gcc-3.4.6
gcc-c++-3.4.6
glibc-2.3.4-2.41
glibc-common-2.3.4
glibc-devel-2.3.4
glibc-headers-2.3.4
libaio-devel-0.3.105
libaio-0.3.105
libgcc-3.4.6
libstdc++-3.4.6
libstdc++-devel-3.4.6
make-3.80
pdksh-5.2.14
sysstat-5.0.5
unixODBC-2.2.11
unixODBC-devel-2.2.11
53
Asianux Server 3、Enterprise Linux 5およびRed Hat
Enterprise Linux 5
次のバージョン以上のパッケージがインストールされている必要があります。
binutils-2.17.50.0.6
compat-libstdc++-33-3.2.3
elfutils-libelf-0.125
elfutils-libelf-devel-0.125
elfutils-libelf-devel-static-0.125
gcc-4.1.2
gcc-c++-4.1.2
glibc-2.5-24
glibc-common-2.5
glibc-devel-2.5
glibc-headers-2.5
kernel-headers-2.6.18
ksh-20060214
libaio-0.3.106
libaio-devel-0.3.106
libgcc-4.1.2
libgomp-4.1.2
libstdc++-4.1.2
libstdc++-devel-4.1.2
make-3.81
sysstat-7.0.2
unixODBC-2.2.11
unixODBC-devel-2.2.11
SUSE 10パッケージ
次のバージョン以上のパッケージがインストールされている必要があります。
binutils-2.16.91.0.5
compat-libstdc++-5.0.7
gcc-4.1.2
gcc-c++-4.1.2
glibc-2.5-24
glibc-devel-2.4
ksh-93r-12.9
libaio-0.3.104
libaio-devel-0.3.104
libelf-0.8.5
libgcc-4.1.2
libstdc++-4.1.2
libstdc++-devel-4.1.2
make-3.80
sysstat-8.0.4
SUSE 11パッケージ
次のバージョン以上のパッケージがインストールされている必要があります。
binutils-2.19
gcc-4.3
gcc-c++-4.3
glibc-2.9
glibc-devel-2.9
ksh-93t
libstdc++33-3.3.3
libstdc++43-4.3.3_20081022
libstdc++43-devel-4.3.3_20081022
libaio-0.3.104
libaio-devel-0.3.104
libgcc43-4.3.3_20081022
libstdc++-devel-4.3
make-3.81
sysstat-8.1.5
表2-6 Linux x86 Oracle Databaseの機能のパッケージ要件
54
項目
LDAPパッケージ
Pro*C/C++、Oracle Call
Interface、Oracle C++ Call
Interface、Oracle XML
Developer's Kit(XDK)
要件
デフォルトのLinuxインストールを実行しなかった場合、LDAPを使用し、スクリプト odisrvreg、oidca
またはschemasyncを使用するには、Linuxディストリビューション用のKornシェルRPMをインストール
します。
これらの製品では、Intel C/C++ Compiler 10.1以上と、ディストリビューション用に前述したバー
ジョンのGNU CおよびC++コンパイラの使用がサポートされています。
注意: Intel C/C++ Compiler v10.1は、OCCIアプリケーションを作成するためのgcc 3.4.5、gcc 4.0ま
たはgcc 4.1標準テンプレート・ライブラリでのみ使用できます。
Oracle XML Developer's Kitは、OCCIと同じコンパイラで使用できます。
Oracle ODBCドライバ
Open Database Connectivity(ODBC)を使用する場合は、Linux用の最新のODBCドライバ・マネージャ
をインストールする必要があります。
ご使用のオペレーティング・システムのベンダーから、最新のODBCドライバを入手する必要がありま
す。 ODBCの詳細は、次のURLを参照してください。
http://www.unixodbc.org
ODBC RPMは、ODBCを使用する場合にのみ必要です。 ODBCを使用しない場合は、Oracle Clusterware、
Oracle ASMまたはOracle RACにODBC RPMをインストールする必要はありません。
Oracle JDBC/OCIドライバ
Oracle JDBC/OCIドライバでは、次の任意のJDKバージョンを使用できますが、インストールには必要あ
りません。
●
JNDI拡張機能を組み込んだSun JDK 1.5.0-06(JDK 5.0)
●
IBM Java 5.0 32-bit(SR1)以上
注意: このリリースでは、デフォルトでIBM Java 5.0(32-bit)がインストールされています。
Oracle Real Application Clusters
クラスタ・ファイル・システムの場合は、次のいずれかのオプションを使用します。
OCFS2
●
バージョン1.2.9以上
共有のOCFS2の場所にOracle RACホームをインストールする場合は、OCFS2を、書込み可能な共有mmapが
サポートされているバージョン1.4.1以上にアップグレードする必要があります。
OCFSのバージョンを確認するには、次のコマンドを入力します。
modinfo ocfs2
OCFS2ツールとOCFS2コンソールのバージョンを確認するには、次のコマンドを入力します。
rpm -qa¦ grep ocfs2
ocfs2consoleとocfs2-toolsがバージョン1.2.9以上であることを確認します。
55
OCFS2の詳細は、次のWebサイトを参照してください。
http://oss.oracle.com/projects/ocfs2/
OCFS2の動作保証については、My Oracle Supportの「Certify」ページを参照してください。
2.8.2 x86-64 Linuxプラットフォームでのソフトウェア要件
Oracle Grid Infrastructureのみをインストールする場合は、カーネル・バージョンとパッケージが、表2-7および表2-8に示されたものである
ことを確認します。
Oracle Grid Infrastructureに加えてOracle DatabaseまたはOracle RACをインストールする場合は、表2-9を確認し、使用する予定の機能のた
めに追加パッケージをインストールする必要があるかどうかを確認します。
注意:
Asianux Server、Oracle Enterprise LinuxおよびRed Hat Enterprise Linuxの場合、カーネル・バージョンごと
のシステム要件は同じです。 具体的には次のとおりです。
Asianux 2、Oracle Enterprise Linux 4およびRed Hat Enterprise Linux 4の要件は同じです。
Asianux Server 3、Oracle Enterprise Linux 5およびRed Hat Enterprise Linux 5の要件は同じです。
表2-7 Linux x86-64オペレーティング・システムのカーネル要件
Linuxディストリビューション
Asianuxディストリビューション
Enterprise Linuxディストリビューション
Red Hat Enterprise Linuxディストリビューション
SUSE Enterprise Linuxディストリビューション
要件
●
Asianux 2、カーネル2.6.9以上
●
Asianux 3、カーネル2.6.18以上
●
Enterprise Linux 4 Update 7、カーネル2.6.9以上
●
Enterprise Linux 5 Update 2、カーネル2.6.18以上
●
Red Hat Enterprise Linux 4 Update 7、カーネル2.6.9以上
●
Red Hat Enterprise Linux 5 Update 2、カーネル2.6.18以上
●
SUSE 10、カーネル2.6.16.21以上
●
SUSE 11、カーネル2.6.27.19以上
表2-8 Linux x86-64 Oracle Grid InfrastructureおよびOracle RACのパッケージ要件
56
項目
要件
Asianux 2、Enterprise Linux 4およびRed Hat Enterprise
Linux 4
次のバージョン以上のパッケージがインストールされている必要があります。
binutils-2.15.92.0.2
compat-libstdc++-33-3.2.3
compat-libstdc++-33-3.2.3 (32 bit)
elfutils-libelf-0.97
elfutils-libelf-devel-0.97
expat-1.95.7
gcc-3.4.6
gcc-c++-3.4.6
glibc-2.3.4-2.41
glibc-2.3.4-2.41 (32 bit)
glibc-common-2.3.4
glibc-devel-2.3.4
glibc-headers-2.3.4
libaio-0.3.105
libaio-0.3.105 (32 bit)
libaio-devel-0.3.105
libaio-devel-0.3.105 (32 bit)
libgcc-3.4.6
libgcc-3.4.6 (32-bit)
libstdc++-3.4.6
libstdc++-3.4.6 (32 bit)
libstdc++-devel 3.4.6
make-3.80
pdksh-5.2.14
sysstat-5.0.5
unixODBC-2.2.11
unixODBC-2.2.11 (32 bit)
unixODBC-devel-2.2.11
unixODBC-devel-2.2.11 (32 bit)
Asianux Server 3、Enterprise Linux 5およびRed Hat
Enterprise Linux 5
次のバージョン以上のパッケージがインストールされている必要があります。
binutils-2.17.50.0.6
compat-libstdc++-33-3.2.3
compat-libstdc++-33-3.2.3 (32 bit)
elfutils-libelf-0.125
elfutils-libelf-devel-0.125
gcc-4.1.2
gcc-c++-4.1.2
glibc-2.5-24
glibc-2.5-24 (32 bit)
glibc-common-2.5
glibc-devel-2.5
glibc-devel-2.5 (32 bit)
glibc-headers-2.5
ksh-20060214
libaio-0.3.106
libaio-0.3.106 (32 bit)
libaio-devel-0.3.106
libaio-devel-0.3.106 (32 bit)
libgcc-4.1.2
libgcc-4.1.2 (32 bit)
libstdc++-4.1.2
libstdc++-4.1.2 (32 bit)
libstdc++-devel 4.1.2
make-3.81
sysstat-7.0.2
unixODBC-2.2.11
unixODBC-2.2.11 (32 bit)
unixODBC-devel-2.2.11
unixODBC-devel-2.2.11 (32 bit)
57
SUSE 10
次のバージョン以上のパッケージがインストールされている必要があります。
binutils-2.16.91.0.5
compat-libstdc++-5.0.7
gcc-4.1.0
gcc-c++-4.1.2
glibc-2.5-24
glibc-devel-2.4
glibc-devel-32bit-2.4
ksh-93r-12.9
libaio-0.3.104
libaio-32bit-0.3.104
libaio-devel-0.3.104
libaio-devel-32bit-0.3.104
libelf-0.8.5
libgcc-4.1.2
libstdc++-4.1.2
make-3.80
sysstat-8.0.4
SUSE 11
次のバージョン以上のパッケージがインストールされている必要があります。
binutils-2.19
gcc-4.3
gcc-32bit-4.3
gcc-c++-4.3
glibc-2.9
glibc-32bit-2.9
glibc-devel-2.9
glibc-devel-32bit-2.9
ksh-93t
libaio-0.3.104
libaio-32bit-0.3.104
libaio-devel-0.3.104
libaio-devel-32bit-0.3.104
libstdc++33-3.3.3
libstdc++33-32bit-3.3.3
libstdc++43-4.3.3_20081022
libstdc++43-32bit-4.3.3_20081022
libstdc++43-devel-4.3.3_20081022
libstdc++43-devel-32bit-4.3.3_20081022
libgcc43-4.3.3_20081022
libstdc++-devel-4.3
make-3.81
sysstat-8.1.5
表2-9 Linux x86-64 Oracle Databaseの機能のパッケージ要件
項目
LDAPパッケージ
要件
デフォルトのLinuxインストールを実行しなかった場合、LDAPを使用し、スクリプト odisrvreg、oidca
またはschemasyncを使用するには、Linuxディストリビューション用のKornシェルRPMをインストールし
ます。
58
Pro*C/C++、Oracle Call
Interface、Oracle C++ Call
Interface、Oracle XML
Developer's Kit(XDK)
これらの製品では、Intel C/C++ Compiler 10.1以上と、ディストリビューション用に前述したバージョ
ンのGNU CおよびC++コンパイラの使用がサポートされています。
注意: Intel C/C++ Compiler v10.1は、OCCIアプリケーションを作成するためのgcc 3.4.5、gcc 4.0ま
たはgcc 4.1標準テンプレート・ライブラリでのみ使用できます
Oracle XML Developer's Kitは、OCCIと同じコンパイラで使用できます。
Oracle ODBCドライバ
Open Database Connectivity(ODBC)を使用する場合は、Linux用の最新のODBCドライバ・マネージャを
インストールする必要があります。
ご使用のオペレーティング・システムのベンダーから、最新のODBCドライバを入手する必要がありま
す。 ODBCの詳細は、次のURLを参照してください。
http://www.unixodbc.org
ODBC RPMは、ODBCを使用する場合にのみ必要です。 ODBCを使用しない場合は、Oracle Clusterware、
Oracle ASMまたはOracle RACにODBC RPMをインストールする必要はありません。
ODBCを使用する場合は、オペレーティング・システムに応じて、次の32-bit ODBC RPMも追加でインス
トールする必要があります。
Asianux 2、Enterprise Linux 4およびRed Hat Enterprise Linux 4:
unixODBC-2.2.11(32 bit)以上
unixODBC-devel-2.2.11(32 bit)以上
Asianux Server 3、Enterprise Linux 5およびRed Hat Enterprise Linux 5:
unixODBC-2.2.11(32 bit)以上
unixODBC-devel-2.2.11(32 bit)以上
Oracle JDBC/OCIドライバ
Oracle JDBC/OCIドライバでは、次の任意のJDKバージョンを使用できますが、インストールには必要あ
りません。
●
JNDI拡張機能を組み込んだSun JDK 1.5.0-06(JDK 5.0)
●
IBM Java 5.0 32-bit(SR1)以上
注意: このリリースでは、デフォルトでIBM Java 5.0(32-bit)がインストールされています。
59
Oracle Real Application Clusters
クラスタ・ファイル・システムの場合は、次のオプションを使用します。
OCFS2
●
バージョン1.2.9以上
OCFSのバージョンを確認するには、次のコマンドを入力します。
modinfo ocfs2
OCFS2ツールとOCFS2コンソールのバージョンを確認するには、次のコマンドを入力します。
rpm -qa¦ grep ocfs2
ocfs2consoleとocfs2-toolsがバージョン1.2.7以上であることを確認します。
OCFS2の詳細は、次のWebサイトを参照してください。
http://oss.oracle.com/projects/ocfs2/
OCFS2の動作保証については、My Oracle Supportの「Certify」ページを参照してください。
http://oss.oracle.com/projects/ocfs2/
OCFS2の動作保証については、My Oracle Supportの「Certify」ページを参照してください。
2.9 ソフトウェア要件の確認
システムがこれらの要件を満たしていることを確認するには、次の手順を実行します。
1.
次のコマンドを入力して、Linuxのディストリビューションおよびバージョンを確認します。
# cat /proc/version
注意:
前述の表に示されているディストリビューションとバージョンのみがサポートされています。 他のバー
ジョンのLinuxにはソフトウェアをインストールしないでください。
2.
次のコマンドを入力して、必要なカーネル・エラータがインストールされているかどうかを確認します。
# uname -r
Red Hat Enterprise Linux 4.0システム上で次のコマンドを実行すると、次のような出力が表示されます。
2.6.9-55.0.0.0.2.ELsmp
この例の出力結果には、システムのカーネル・バージョン(2.6.9)およびエラータ・レベル(55.0.0.0.2.ELsmp)が表示されます。
ご使用のディストリビューションに必要なエラータ・レベルを確認します。 エラータ・レベルが必要最小限のエラータ更新より以前
の場合は、Linuxのディストリビュータからカーネルの最新の更新を取得してインストールします。
60
3.
次のコマンドを入力して、必要なパッケージがインストールされているかどうかを確認します。
# rpm -q package_name
特定のシステム・アーキテクチャ情報が必要な場合は、次のコマンドを入力します。
# rpm -qa --queryformat "%{NAME}-%{VERSION}-%{RELEASE} (%{ARCH})¥n" ¦ grep package_name
複数のパッケージの問合せをまとめて行い、その出力によって適切なバージョンかどうかを確認することもできます。 次に例を示し
ます。
# rpm -q binutils compat-libstdc++ elfutils gcc glibc libaio libgcc libstdc++ ¥
make sysstat unixodbc
パッケージがインストールされていない場合は、Linuxの配布メディアからインストールするか、またはLinuxのディストリビュータの
サイトから必要なバージョンのパッケージをダウンロードしてインストールします。
4.
次のコマンドを入力して、OCFS2がインストールされているかどうかを確認します。
# /sbin/modinfo ocfs2
Oracle DatabaseファイルをOCFS2ファイル・システムにインストールする際にOCFSパッケージがインストールされていない場合は、次
のWebサイトからダウンロードします。 キットに記載された手順に従って、パッケージをインストールし、ファイル・システムを構成
します。
http://oss.oracle.com/projects/ocfs2/
2.10 ネットワーク・タイム・プロトコルの設定
Oracle Clusterware 11gリリース2(11.2)以上では、Oracle RACをデプロイする場合には、クラスタ内のすべてのノードで時刻の同期が必要で
す。 時刻を同期させるための手段は2つあります。オペレーティング・システムに構成されているネットワーク・タイム・プロトコル(NTP)
と、Oracleクラスタ時刻同期化サービス(ctssd)です。 Oracleクラスタ時刻同期化サービスは、Oracle RACデータベースからNTPサービスにア
クセスできない組織のために設計されています。
クラスタ内で時刻同期化サービスを提供するためにクラスタ時刻同期化サービスを使用する場合は、ネットワーク・タイム・プロトコル(NTP)
を構成解除し、削除します。
NTPサービスを非アクティブ化するには、既存のntpdサービスを停止し、初期化シーケンスでは無効化し、ntp.confファイルを削除します。 こ
の手順をOracle Enterprise LinuxおよびAsianuxのシステムで行うには、次のコマンドをrootユーザーとして実行します。
# /sbin/service ntpd stop
# chkconfig ntpd off
# rm /etc/ntp.conf
または、mv /etc/ntp.conf to /etc/ntp.conf.orgを実行します。
次のファイルも削除します。
/var/run/ntpd.pid
このファイルには、NTPデーモンのpidが保持されています。
NTPプロトコルがアクティブでないとインストーラによって判断されると、クラスタ時刻同期化サービスがアクティブ・モードでインストールさ
れ、ノード間で時刻が同期されます。 NTPが構成されていると判断された場合は、クラスタ時刻同期化サービスはオブザーバ・モードで起動さ
61
れ、クラスタ内でOracle Clusterwareによるアクティブな時刻同期化は行われません。
インストール後にctssdがアクティブになっていることを確認するには、グリッド・インストール所有者として次のコマンドを入力します。
$ crsctl check ctss
NTPを使用しており、クラスタ時刻同期化サービスではなくNTPを使用し続けたい場合は、NTP初期化ファイルを変更して-xフラグを設定し、逆向
きの時間調整が行われないようにします。 この作業が終わった後で、ネットワーク・タイム・プロトコル・デーモンを再起動します。
これを行うには、Oracle Enterprise Linux、Red Hat LinuxおよびAsianux systemsでは、/etc/sysconfig/ntpdファイルを編集して、次の例のよ
うに-xフラグを追加します。
# Drop root to id 'ntp:ntp' by default.
OPTIONS="-x -u ntp:ntp -p /var/run/ntpd.pid"
# Set to 'yes' to sync hw clock after successful ntpdate
SYNC_HWCLOCK=no
# Additional options for ntpdate
NTPDATE_OPTIONS=""
そして、NTPサービスを再起動します。
# /sbin/service ntp restart
SUSEシステムでは、構成ファイル/etc/sysconfig/ntpを次の設定に変更します。
NTPD_OPTIONS="-x -u ntp"
次のコマンドを使用して、デーモンを再起動します。
# service ntp restart
2.11 Linuxのcvuqdiskパッケージのインストール
オペレーティング・システム・パッケージcvuqdiskをインストールします。 cvuqdiskがインストールされていない状態でクラスタ検証ユーティ
リティを実行すると、クラスタ検証ユーティリティは共有ディスクを検出できずに、「パッケージcvuqdiskがインストールされていません。」
というメッセージを表示します。 ご使用のハードウェア(x86_64i386など)に応じたcvuqdisk rpmを使用します。
cvuqdisk RPMをインストールするには、次の手順を実行します。
注意:
必要に応じて、次の行をgrid_home/cv/admin/cvuconfigファイルに追加し、クラスタ検証ユーティリティの共有
ディスクの検証を無効にするように選択できます。
CV_RAW_CHECK_ENABLED=FALSE
1.
cvuqdisk RPMパッケージの場所を確認します。このパッケージは、インストール・メディアのrpmディレクトリにあります。 Oracle
Grid Infrastructureをすでにインストールしている場合は、grid_home/rpmディレクトリにあります。
2.
cvuqdiskパッケージをクラスタの各ノードにコピーします。 各ノードで同じバージョンのLinuxが実行されていることを確認する必要
があります。
62
3.
rootユーザーでログインします。
4.
次のコマンドを使用して、cvuqdiskパッケージの既存バージョンがあるかどうかを確認します。
# rpm -qi cvuqdisk
既存バージョンがある場合は、次のコマンドを入力して既存バージョンを削除します。
# rpm -e cvuqdisk
5.
cvuqdiskを所有しているグループを指すように、環境変数CVUQDISK_GRPを設定します。通常は、oinstallです。 次に例を示します。
# CVUQDISK_GRP=oinstall; export CVUQDISK_GRP
6.
cvuqdisk rpmを保存したディレクトリで、次のコマンドを使用してcvuqdiskパッケージをインストールします。
rpm -iv package
次に例を示します。
# rpm -iv cvuqdisk-1.0.7-1.rpm
2.12 Intelligent Platform Management Interface(IPMI)の有効化
Intelligent Platform Management Interface(IPMI)は、コンピュータのハードウェアおよびファームウェアへの共通インタフェースを提供
し、システム管理者はそのインタフェースを使用して、システム状態の監視およびシステムの管理を実行できます。 Oracle 11g リリース2で
は、Oracle ClusterwareにIPMIを統合して、障害分離をサポートしたりクラスタの整合性を確保することができます。
インストール中にノード・ターミネーション・プロトコル(IPMIなど)を選択することで、IPMIでノード・ターミネーションを構成できます。
また、IPMIは、crsctlコマンドを使用してインストール後に構成することもできます。
参照:
インストール後にIPMIの構成を行う方法の詳細は、『Oracle Clusterware管理およびデプロイメント・ガイド』
を参照してください。
2.12.1 IPMIを有効化するための要件
クラスタ・ノードをIPMIで管理できるようするには、次のようにハードウェアおよびソフトウェアを構成する必要があります。
●
●
●
各クラスタ・メンバー・ノードにBaseboard Management Controller(BMC)が必要です。このBMCは、IPMI over LANをサポートする
IPMIバージョン1.5以上と互換性があるファームウェアを実行し、LANを使用したリモート制御に対応するように構成されている必要が
あります。
各クラスタ・メンバー・ノードに、IPMIドライバがインストールされている必要があります。
クラスタに、IPMI用の管理ネットワークが必要です。 これは共有ネットワークでも可能ですが、専用ネットワークの構成をお薦めし
ます。
●
BMCで使用する各クラスタ・メンバー・ノードのイーサネット・ポートが、IPMI管理ネットワークに接続されている必要があります。
●
各クラスタ・メンバーが管理ネットワークに接続されている必要があります。
●
一部のサーバー・プラットフォームでは、電源を切るとネットワーク・インタフェースが省電力モードになります。 この場合には、
63
低いリンク速度(1GBではなく100MBなど)で動作することになります。 こうしたプラットフォームの場合、BMCが接続されるネット
ワーク・スイッチ・ポートで、低い速度に合わせた自動ネゴシエートが可能である必要があります。そうでない場合は、IPMIが正常に
動作しません。
2.12.2 IPMI管理ネットワークの構成
BMCはDHCPまたは静的IPアドレスで構成できます。 お薦めするのは、DHCPを使用して動的に割り当てたIPアドレスでBMCを構成する方法です。
この方法を選択する場合は、BMCのIPアドレスを割り当てるようにDHCPサーバーを構成する必要があります。
注意:
IPMIを構成し、グリッド・ネーミング・サービス(GNS)を使用する場合でも、IPMIインタフェースには別のアド
レスを構成する必要があります。 IPMIアダプタはホストから直接には認識できないため、GNSはホスト上のアド
レスとしてIPMIアダプタを認識できません。
2.12.3 IPMIドライバの構成
Oracle ClusterwareがBMCと通信するには、システムの再起動時にIPMIドライバが使用できるように、IPMIドライバが各ノードに永続的にインス
トールされている必要があります。 IPMIドライバは、このリリースでサポートしているAsianux Linux、Oracle Enterprise Linux、Red Hat
Enterprise LinuxおよびSUSE Enterprise Linuxのディストリビューションで使用可能です。
2.12.3.1 Open IPMIドライバの構成
Linuxシステムの場合、IPMIを組み込んだOracle Clusterwareデプロイメントでサポートしているドライバは、OpenIPMIドライバです。
このドライバは、必要なモジュールを手動でロードすることで、動的にインストールできます。 ドライバを手動でインストールするには、次の
手順を実行します。
1.
rootユーザーでログインします。
2.
次のコマンドを実行します。
# /sbin/modprobe ipmi_msghandler
# /sbin/modprobe ipmi_si
# /sbin/modprobe ipmi_devintf
3.
(オプション)コマンド/sbin/lsmod ¦grep ipmiを実行して、IPMIモジュールがロードされていることを確認します。 次に例を示しま
す。
# /sbin/lsmod ¦ grep ipmi
ipmi_devintf
12617 0
ipmi_si
33377 0
ipmi_msghandler
33701 2 ipmi_devintf,ipmi_si
注意:
BMCがあるかどうかにかかわらず、モジュールはインストールできます。
4.
テキスト・エディタを使用して/etc/rc.localファイルを開き、ファイルの末尾に移動して、次のような行を入力し、手順2のmodprobe
コマンドがシステムの再起動時に自動的に実行されるようにします。
# START IPMI ON SYSTEM RESTART
/sbin/modprobe ipmi_msghandler
/sbin/modprobe ipmi_si
/sbin/modprobe ipmi_devintf
5.
次のコマンドを使用して、LinuxシステムがIPMIデバイスを認識していることを確認します。
64
ls -l /dev/ipmi0
IPMIデバイスが動的にロードされた場合、出力は次のようになります。
# ls -l /dev/ipmi0
crw------- 1 root root 253, 0 Sep 23 06:29 /dev/ipmi0
デバイス・ファイルの出力が表示された場合は、IPMIドライバが構成済であり、これ以降の手順を行う必要はありません。
デバイス・ファイルの出力が表示されない場合は、デバイス・ファイルが自動的に作成されるようにudevdデーモンが設定されていま
せん。 次の手順に進みます。
6.
コマンドgrep ipmi /proc/devicesを使用して、IPMIデバイスのデバイス・メジャー番号を確認します。 次に例を示します。
# grep ipmi /proc/devices
253 ipmidev
この例の場合、デバイス・メジャー番号は253です。
7.
デバイス・メジャー番号を指定してmknodコマンドを実行し、IPMIデバイスのディレクトリ・エントリとi-nodeを作成します。 次に
例を示します。
# mknod /dev/ipmi0 c 253 0x0
この例の/dev/ipmi0の権限により、rootのみがデバイスにアクセスできます。 システムの脆弱性を防ぐため、デバイスはrootのみが
アクセスするようにしてください。
2.12.3.2 BMCの構成
IPMIベースのノード・フェンシングを適切に機能させるには、各ノードのBMCがLANによるリモート制御を行えるように構成します。 BMCの構成
は、BIOSプロンプトからディストリビューション固有の管理ユーティリティを使用して実行できます。また、次のような公開ユーティリティを
使用して実行することもできます。
IPMItool(Linuxで使用可能):
http://ipmitool.sourceforge.net
IPMIutil(LinuxおよびWindowsで使用可能):
http://ipmiutil.sourceforge.net
ツールを使用してBMCを構成する方法の詳細は、選択した構成ツールのドキュメントを参照してください。
各ノードでBMCを構成するときには、次の手順を実行する必要があります。
●
IPMI over LANを有効にして、管理ネットワーク経由でBMCを制御できるようにします。
●
DHCPまたはGNSを使用して動的なIPアドレスを有効にするか、BMCに対して静的IPアドレスを構成します。
●
BMCの管理者ユーザー・アカウントおよびパスワードを設定します。
●
BMCをタグVLANで使用する場合は、VLANのタグに対応するようにBMCを構成します。
65
使用する構成ツールは問いませんが、BMCが正しく機能するには、これらの条件を満たしている必要があります。
2.12.3.2.1 IPMItoolを使用したBMCの構成例
次に示すのは、ipmitool(バージョン1.8.6)を使用してBMCを構成する例です。
1.
rootユーザーでログインします。
2.
ipmitoolが、IPMIドライバを使用してBMCと通信できることを確認します。これを行うには、コマンドbmc infoを使用して、その出力
からデバイスIDを探します。 次に例を示します。
# ipmitool bmc info
Device ID
: 32
.
.
.
ipmitoolがBMCと通信していない場合は、「Open IPMIドライバの構成」の項を参照して、IPMIドライバが動作しているかどうかを確認
します。
3.
次の手順で、IPMI over LANを有効にします。
1.
IPMI over LANに使用するチャネルの、チャネル番号を決めます。 チャネル1から始めて、LAN属性(IPアドレスなど)が表
示されるチャネルが見つかるまで、次のコマンドを実行します。
# ipmitool lan print 1
...
IP Address Source
: 0x01
IP Address
: 140.87.155.89
...
2.
検出されたチャネルに対してLANアクセスを有効にします。 たとえば、チャネルが1の場合は次のようにします。
# ipmitool lan set 1 access on
4.
次のいずれかの手順で、IPMIのIPアドレス設定を構成します。
❍
動的IPアドレス(DHCP)を使用する場合
動的IPアドレスは、Oracle Universal Installerでのデフォルトです。 クラスタのノードを簡単に追加または削除できる
ように(アドレスの設定を自動的に割り当てることができるように)、このオプションを選択することをお薦めします。
注意:
DHCPを使用するには、サブネット上にDHCPサーバーがあることが必要です。
チャネルを設定します。 たとえば、チャネルが1の場合は、次のコマンドを入力してDHCPを有効にします。
# ipmitool lan set 1 ipsrc dhcp
5.
静的IPアドレスを使用する場合
ネットワーク接続をBMCとオペレーティング・システムで共有する場合は、IPアドレスが同じサブネット上にあることが必要です。 IP
アドレスを設定するだけでなく、ネットマスクの値およびデフォルト・ゲートウェイも適切に設定する必要があります。 たとえば、
チャネルが1の場合は次のようにします。
66
# ipmitool lan set 1 ipaddr 192.168.0.55
# ipmitool lan set 1 netmask 255.255.255.0
# ipmitool lan set 1 defgw ipaddr 192.168.0.1
指定したアドレス(192.168.0.55)は、BMCのみに関連付けられます。通常のpingに応答することはありません。
6.
次の手順を実行して、ユーザー名とパスワードを管理アカウントに設定します(チャネルは1を想定しています)。
1.
LAN経由のADMINアクセスに対してパスワード認証を要求するようにBMCを設定します。 次に例を示します。
# ipmitool lan set 1 auth ADMIN MD5,PASSWORD
2.
BMC上のアカウント・スロットをリストして、使用されていないスロット(ユーザー名フィールドが空のユーザーID)を特
定します。 次に例を示します。
# ipmitool channel getaccess 1
...
User ID
:4
User Name
:
Fixed Name
: No
Access Available : call-in / callback
Link Authentication : disabled
IPMI Messaging
: disabled
Privilege Level : NO ACCESS
...
3.
任意の管理者ユーザー名およびパスワードを割り当て、特定したスロットに対してメッセージ機能を有効にします。
(IPMI v1.5の場合、ユーザー名およびパスワードは最長で16文字です。) さらに、そのスロットがLAN(チャネル1)経由
でアクセスされる場合の権限レベルをADMIN(レベル4)に設定します。 たとえば、username が管理ユーザー名で、
password がパスワードの場合は、次のようになります。
# ipmitool user set name 4 username
# ipmitool user set password 4 password
# ipmitool user enable 4
# ipmitool channel setaccess 1 4 privilege=4
# ipmitool channel setaccess 1 4 link=on
# ipmitool channel setaccess 1 4 ipmi=on
4.
lan print 1コマンドを使用して、設定を確認します。出力結果は、次のようになります。 太字のテキストで示した項目
は、前述の構成手順で設定した内容です。コメントや代替オプションは、カッコ[ ]内に示しています。
# ipmitool lan print 1
Set in Progress
: Set Complete
Auth Type Support
: NONE MD2 MD5 PASSWORD
Auth Type Enable
: Callback : MD2 MD5
: User : MD2 MD5
: Operator : MD2 MD5
: Admin : MD5 PASSWORD
: OEM : MD2 MD5
IP Address Source
: DHCP Address [or Static Address]
IP Address
: 192.168.0.55
Subnet Mask
: 255.255.255.0
MAC Address
: 00:14:22:23:fa:f9
SNMP Community String : public
IP Header
: TTL=0x40 Flags=0x40 Precedence=…
Default Gateway IP : 192.168.0.1
Default Gateway MAC : 00:00:00:00:00:00
.
.
.
# ipmitool channel getaccess 1 4
Maximum User IDs : 10
Enabled User IDs : 2
User ID
:4
67
User Name
: username [This is the administration user]
Fixed Name
: No
Access Available : call-in / callback
Link Authentication : enabled
IPMI Messaging
: enabled
Privilege Level : ADMINISTRATOR
7.
クラスタ内のリモート・ノードからBMCにアクセスして管理できることを、bmc infoコマンドで確認します。 たとえば、node2のBMC
のIPアドレスを割り当てられたネットワーク・ホスト名がnode2-ipmiの場合、管理者アカウントusernameとパスワードmypassword
を使用して、node1からnode2上のBMCを確認するには、node1上で次のコマンドを入力します。
$ ipmitool -H node2-ipmi -U username -P mypassword bmc info
BMCが正しく構成されている場合は、リモート・ノードのBMCに関する情報が表示されます。 Error: Unable to establish LAN sessionな
どのエラー・メッセージが表示された場合は、リモート・ノードのBMC構成を確認する必要があります。
2.13 インストール時におけるSSHの自動構成
Oracleソフトウェアをインストールするには、すべてのクラスタ・メンバー・ノード間にセキュア・シェル(SSH)の接続が設定されている必要
があります。 OUIは、インストール中にsshおよびscpコマンドを使用して、他のクラスタ・ノードに対してリモート・コマンドを実行し、その
クラスタ・ノードにファイルをコピーします。 これらのコマンドを使用する際にパスワードを求めるプロンプトが表示されないように、SSHを
構成する必要があります。
注意:
SSHは、Oracleコンフィギュレーション・アシスタントによる、ローカル・ノードからリモート・ノードに対する
構成操作に使用されます。 Enterprise Managerでも使用されます。
Oracle Universal Installer(OUI)インタフェースから、インストール中に、インストールを実行しているユーザー・アカウントにSSHを構成
することができます。 自動構成によって、パスワードなしのSSH接続をすべてのクラスタ・メンバー・ノード間に作成することができます。 可
能なかぎり、この自動手順を利用することをお薦めします。
スクリプトを実行できるようにするには、すべてのOracleソフトウェア・インストール所有者のプロファイルからsttyコマンドを削除するととも
に、ログイン時にトリガーされる他のセキュリティ手段で、端末に対してメッセージを生成するものを削除する必要があります。 これらのメッ
セージやメール・チェックなどが表示されていると、Oracleソフトウェア・インストール所有者は、Oracle Universal Installerに組み込まれ
ているSSH構成スクリプトを使用できません。 これらの表示が無効になっていない場合は、SSHを手動で構成してからでなければ、インストール
を実行できません。
参照:
ユーザー・プロファイルのsttyコマンドを削除する方法の詳細は、「インストール中にsttyコマンドによって発
生するエラーの防止」を参照してください。
2.14 グリッド・インフラストラクチャ・ソフトウェア所有者ユーザー環境の構成
インストーラ・ソフトウェアは、Oracle Grid Infrastructureインストール所有者ユーザー・アカウント(oracleまたはgrid)で実行します。
ただし、インストーラを起動する前に、インストール所有者ユーザー・アカウントの環境を構成する必要があります。 また、必要に応じて、他
の必要なOracleソフトウェア所有者を作成します。
この項の内容は次のとおりです。
●
Oracle Grid Infrastructureソフトウェア所有者の環境要件
●
Oracleソフトウェア所有者の環境の構成手順
●
Oracleソフトウェア・インストール・ユーザーのリソース制限の設定
68
●
表示およびX11転送の構成の設定
●
インストール中にsttyコマンドによって発生するエラーの防止
2.14.1 Oracle Grid Infrastructureソフトウェア所有者の環境要件
Oracle Grid Infrastructureソフトウェア所有者の環境を構成するには、次の変更を行う必要があります。
●
シェル起動ファイルで、インストール・ソフトウェア所有者ユーザー(grid、oracle)のデフォルトのファイル・モード作成マスク
(umask)を022に設定します。 マスクを022に設定すると、ソフトウェア・インストールを実行するユーザーが作成するファイルの権
限は常に644になります。
●
インストール・ソフトウェア所有者(grid、oracle)のファイル記述子およびプロセスに対して、ulimitを設定します。
●
Oracle Grid Infrastructureをインストールする準備として、ソフトウェア所有者のDISPLAY環境変数を設定します。
2.14.2 Oracleソフトウェア所有者の環境の構成手順
Oracleソフトウェア所有者の環境を設定するには、ソフトウェア所有者(grid、oracle)ごとに次の手順を実行します。
1.
X端末(xterm)などの端末セッションを新規に開始します。
2.
次のコマンドを入力して、このシステムでX Windowアプリケーションが表示可能であることを確認します。
$ xhost + hostname
hostnameは、ローカル・ホストの名前です。
3.
ソフトウェアをインストールするシステムにまだログインしていない場合は、ソフトウェア所有者ユーザーとしてそのシステムにログ
インします。
4.
そのユーザーでログインしていない場合は、構成するソフトウェア所有者に切り替えます。 たとえば、gridユーザーの場合は次のよ
うになります。
$ su - grid
5.
次のコマンドを入力して、ユーザーのデフォルトのシェルを確認します。
$ echo $SHELL
6.
テキスト・エディタでユーザーのシェル起動ファイルを開きます。
❍
Bashシェル(bash):
$ vi .bash_profile
❍
Bourneシェル(sh)またはKornシェル(ksh):
$ vi .profile
❍
Cシェル(cshまたはtcsh):
69
% vi .login
7.
次のように行を入力または編集して、デフォルトのファイル・モード作成マスクの値に022を指定します。
umask 022
8.
環境変数ORACLE_SID、ORACLE_HOMEまたはORACLE_BASEがファイルに設定されている場合は、そのファイルからこれらの行を削
除します。
9.
ファイルを保存して、テキスト・エディタを終了します。
10.
シェル起動スクリプトを実行するには、次のいずれかのコマンドを入力します。
❍
Bashシェル:
$ . ./.bash_profile
❍
Bourne、BashまたはKornシェル:
$ . ./.profile
❍
Cシェル:
% source ./.login
11.
ローカル・システムにソフトウェアをインストールしていない場合は、次のコマンドを入力してXアプリケーションをローカル・シス
テムに表示します。
❍
Bourne、BashまたはKornシェル:
$ DISPLAY=local_host:0.0 ; export DISPLAY
❍
Cシェル:
% setenv DISPLAY local_host:0.0
この例で、local_hostは、インストーラを表示するためのシステム(ご使用のワークステーションまたは他のクライアント)のホスト
名またはIPアドレスです。
12.
/tmpディレクトリの空き領域が1GB未満である場合は、空き領域が1GB以上のファイル・システムを選択し、環境変数TEMPおよび
TMPDIRを設定してこのファイル・システムの一時ディレクトリを指定します。
注意:
Oracle RACのインストール用の一時ファイル・ディレクトリ(通常、/tmp)の場所として、共有ファイ
ル・システムは使用できません。 共有ファイル・システムに/tmpを配置すると、インストールは失敗し
ます。
1.
2.
df -hコマンドを使用して、十分な空き領域を持つ適切なファイル・システムを選択します。
必要に応じて、次のコマンドを入力し、選択したファイル・システムに一時ディレクトリを作成して、そのディレクトリに
適切な権限を設定します。
$ su - root
# mkdir /mount_point/tmp
70
# chmod 775 /mount_point/tmp
# exit
3.
次のコマンドを入力して、環境変数TEMPおよびTMPDIRを設定します。
■
Bourne、BashまたはKornシェル:
$ TEMP=/mount_point/tmp
$ TMPDIR=/mount_point/tmp
$ export TEMP TMPDIR
■
Cシェル:
% setenv TEMP /mount_point/tmp
% setenv TMPDIR /mount_point/tmp
13.
環境が正しく設定されていることを確認するには、次のコマンドを入力します。
$ umask
$ env ¦ more
umaskコマンドによって値22、022または0022が表示されること、およびこの項で設定した環境変数に正しい値が指定されていること
を確認します。
2.14.3 Oracleソフトウェア・インストール・ユーザーのリソース制限の設定
Linux Systemsでソフトウェアのパフォーマンスを向上させるには、Oracleソフトウェア所有者ユーザー(grid、oracle)に対する次のリソース
制限値を大きくする必要があります。
プロセス・リソースのシェル制限
limits.conf内の項目
ハード制限
オープン・ファイル記述子の最大数
nofile
65536
ユーザー1人当たりに使用可能なプロセスの最大数
nproc
16384
プロセスのスタック・セグメントの最大サイズ
stack
10240
シェル制限値を大きくするには、次の手順を実行します。
1.
各ノードで、/etc/security/limits.confファイルに次の行を追加します(次の例では、ソフトウェア・アカウント所有者としてoracleと
gridを使用しています)。
grid
grid
grid
grid
oracle
oracle
oracle
oracle
2.
soft nproc 2047
hard nproc 16384
soft nofile 1024
hard nofile 65536
soft nproc 2047
hard nproc 16384
soft nofile 1024
hard nofile 65536
各ノードで、/etc/pam.d/loginファイルに次の行が存在しない場合は、追加または編集します。
session required
3.
pam_limits.so
シェル環境に応じて、Oracleインストール所有者のulimit設定を変更するために、デフォルトのシェル起動ファイルを次のように変更
します(これらの例では、ユーザーoracleとgridを使用しています)。
71
❍
Bourne、BashまたはKornシェルの場合は、/etc/profileファイル(SUSE Systemsでは/etc/profile.localファイル)に次の行を
追加します。
if [ $USER = "oracle" ] ¦¦ [ $USER = "grid" ]; then
if [ $SHELL = "/bin/ksh" ]; then
ulimit -p 16384
ulimit -n 65536
else
ulimit -u 16384 -n 65536
fi
umask 022
fi
❍
Red Hat、OELまたはAsianuxのCシェル(cshまたはtcsh)の場合は、/etc/csh.loginファイルに次の行を追加します。 SUSEシ
ステムの場合は、同じ行を/etc/csh.login.localに追加します。
if ( $USER == "oracle" ¦¦ $USER == "grid" ) then
limit maxproc 16384
limit descriptors 65536
endif
4.
クラスタ内の他のすべてのノードで、Oracleソフトウェアのインストールに使用する予定のOracleソフトウェア所有者に対してこの手
順を繰り返します。
2.14.4 表示およびX11転送の構成の設定
リモート端末で作業を行っていて、そのローカル・ノードのみが表示されている場合(通常は、この状態になります)、次の構文を使用して、
環境変数DISPLAYを設定します。
Bourne、KornおよびBashシェル:
$ export DISPLAY=hostname:0
Cシェル:
$ setenv DISPLAY hostname:0
たとえば、Bashシェルを使用していて、ホスト名がnode1の場合は、次のコマンドを入力します。
$ export DISPLAY=node1:0
X11転送によってインストールが失敗しないように、次の手順に従って、Oracleソフトウェア所有者ユーザー用にユーザー・レベルのSSHクライ
アント構成ファイルを作成します。
1.
テキスト・エディタを使用して、ソフトウェア・インストール所有者の /.ssh/configファイルを編集または作成します。
2.
ForwardX11属性がnoに設定されていることを確認します。 次に例を示します。
Host *
ForwardX11 no
2.14.5 インストール中にsttyコマンドによって発生するエラーの防止
Oracle Grid Infrastructureのインストール中、OUIは、SSHを使用してコマンドを実行したり、他のノードにファイルをコピーします。 システ
ム上の隠しファイル(.bashrcや.cshrcなど)にsttyコマンドが含まれていると、インストール中にMakeファイルやその他のインストールに関する
エラーが発生します。
72
この問題を防止するには、すべてのSTDERR出力が停止されるように、Oracleインストール所有者ユーザーのホーム・ディレクトリにあるこれら
のファイルを変更する必要があります。次に例を示します。
●
Bourne、BashまたはKornシェル:
if [ -t 0 ]; then
stty intr ^C
fi
●
Cシェル:
test -t 0
if ($status == 0) then
stty intr ^C
endif
注意:
SSHを使用できない場合、インストーラは、sshおよびscpコマンドのかわりにrshおよびrcpを使用しま
す。
リモート・シェルによってロードされる隠しファイルにsttyコマンドが含まれている場合も、エラーが発
生し、インストールが停止されます。
2.15 Oracle Grid Infrastructureホーム・ディレクトリの作成要件
インストール中に、Oracle Grid Infrastructureソフトウェアを格納するホーム・ディレクトリへのパスを指定するように求められます。 指定
するディレクトリ・パスが次の要件を満たすことを確認します。
●
Oracle Clusterwareホームを含む、既存のOracleホーム以外のパスに作成する必要があります。
●
ユーザー・ホーム・ディレクトリ内であってはいけません。
●
すべてのファイルをrootが所有できるパスのサブディレクトリとして作成するか、または一意のパスに作成する必要があります。
●
インストール前にパスを作成する場合は、Oracle Grid Infrastructureのインストール所有者(通常、すべてのOracleソフトウェアに
対して1つのインストール所有者の場合はoracle、ロール・ベースのOracleインストール所有者の場合はgrid)が所有し、権限が775に
設定されている必要があります。
Oracle Grid Infrastructureのみをインストールする場合は、Oracle Optimal Flexible Architecture(OFA)に準拠したパスを作成することを
お薦めします。これによって、Oracle Universal Installer(OUI)がインストール中にそのディレクトリを選択できるようになります。 OUIが
パスをOracleソフトウェア・パスとして認識するには、u0[1-9]/appという形式にする必要があります。
OUIでOFA準拠のパスが検出されると、Oracle Grid InfrastructureおよびOracle Inventory(oraInventory)ディレクトリが作成されます。
手動でOracle Grid Infrastructureのパスを作成する場合は、既存のOracleベース・パスではなく、別のパスの下に作成します。 次に例を示し
ます。
# mkdir -p /u01/app/11.2.0/grid
# chown grid:oinstall /u01/app/11.2.0/grid
# chmod -R 775 /u01/app/11.2.0/grid
このパスでは、インストール所有者の名前がgridの場合、OUIによってデフォルトで、グリッド・ホームとして次のパスが作成されます。
/u01/app/11.2.0/grid
73
データベースのインストールのために、Oracle Databaseインストール所有者アカウントを所有者とするOracleベース・パスを作成します。
OracleベースのOFAパスは、/u01/app/userです。userは、Oracleソフトウェア・インストールの所有者アカウントです。 たとえば、次のコマン
ドを使用して、データベース・インストールの所有者アカウントoracleのOracleベースを作成します。
# mkdir -p /u01/app/oracle
# chown -R oracle:oinstall /u01/app/oracle
# chmod -R 775 /u01/app/oracle
注意:
Oracle Grid Infrastructureホームを手動で作成する場合は、クラスタのOracle Grid Infrastructureホーム
を、グリッド・インストール所有者のOracleベースや、Oracle Databaseインストール所有者のOracleベースに作
成しないでください。 Oracleベース・ディレクトリにOracle Clusterwareインストールを作成すると、その後の
Oracleインストールが失敗します。
Oracle Grid Infrastructureホームは、以前のリリースの既存のOracle Clusterwareホームが共有された場所に
ある場合でも、サーバーのローカル・ホームに配置できます。
スタンドアロン・サーバー用のOracle Grid Infrastructure(Oracle Restart)のホームは、Oracleベースに配
置できます。 Oracle Restartの詳細は、ご使用のプラットフォームに対応するOracle Databaseのインストレー
ション・ガイドを参照してください。
74
3 クラスタ用グリッド・インフラストラクチャとOracle Real Application Clusters
(Oracle RAC)の記憶域の構成
この章では、インストーラを起動してOracle Clusterwareと自動ストレージ管理(ASM)をインストールする前、およびOracle Real
Application Clusters(Oracle RAC)のインストールをクラスタへ追加する前に完了しておく必要がある、記憶域の構成作業について説明しま
す。
この章の内容は次のとおりです。
●
Oracle Grid Infrastructureの記憶域オプションの確認
●
共有ファイル・システムの記憶域の構成
●
自動ストレージ管理の記憶域の構成
●
ブロック・デバイスおよびRAWデバイスのサポート終了
3.1 Oracle Grid Infrastructureの記憶域オプションの確認
この項では、クラスタ用Oracle Grid Infrastructureの格納用にサポートされている記憶域オプションについて説明します。 この項の内容は次
のとおりです。
●
Oracle ClusterwareおよびOracle RACの記憶域オプションの概要
●
Oracle Grid InfrastructureおよびOracle RACの記憶域についての一般的な考慮事項
●
サポートされている記憶域オプション
●
ディスクの記憶域オプションを選択した後の作業
参照:
ネットワーク接続ストレージ・オプションでサポートされているベンダーのリストについては、OracleMetalink
の「Certify」ページを参照してください。
http://www.oracle.com/technology/support/metalink/
動作保証されている記憶域オプションの最新情報についても、My Oracle Supportの「Certify」ページを参照し
てください。
https://metalink.oracle.com/
3.1.1 Oracle ClusterwareおよびOracle RACの記憶域オプションの概要
Oracle Clusterwareファイルの格納には、次の2つの方法があります。
●
自動ストレージ管理(Oracle ASM): Oracle Clusterwareファイル(OCRおよび投票ディスク)をOracle ASMのディスク・グループに
インストールできます。
75
標準インストールとStandard EditionのOracle RACインストールにおいて、Oracle ASMは必須のデータベース記憶域オプションで
す。 ASMは、Oracle ClusterwareとOracle Databaseファイル用の、統合された高性能のデータベース・ファイル・システムおよび
ディスク・マネージャです。 データベース・ファイルのストライプ化およびミラー化を自動的に実行します。
自動ストレージ管理クラスタ・ファイル・システム(ACFS)は、汎用のファイル・システムです。 このシステムにはOracle Database
バイナリを配置できますが、Oracleデータ・ファイルやOracle Clusterwareファイルを配置することはできません。
ノード上のデータベース・インスタンスの数に関係なく、各ノードに許可されるOracle ASMインスタンスは1つのみです。
注意:
Oracle自動ストレージ管理(Oracle ASM)11gリリース2(11.2)for Linuxでは、Oracle自動ストレージ
管理クラスタ・ファイル・システム(Oracle ACFS)およびOracle ASM動的ボリューム・マネージャ
(Oracle ADVM)は、次の環境でのみサポートされます。
❍
Red HatまたはOracle Enterprise Linux 5、32-bit
❍
Red HatまたはOracle Enterprise Linux 5、64-bit
OVM環境には、Red HatまたはOracle Enterprise Linux 5 Update 4以上が必要です。
Oracle Clusterwareのバイナリやファイルを、Oracle自動ストレージ管理クラスタ・ファイル・システム
(Oracle ACFS)に配置することはできません。
Oracle DatabaseファイルをOracle ACFSに配置することはできません。
Oracle DatabaseバイナリはOracle ACFSに配置できます。
共有のOCFS2の場所にOracle RACホームをインストールする場合は、OCFS2を、書込み可能な共有mmapがサ
ポートされているバージョン1.4.1以上にアップグレードする必要があります。
ACFSは、他のファイルのための汎用ファイル・システムとなります。
●
サポートされている共有ファイル・システム: サポートされているファイル・システムには、次のものがあります。
❍
ネットワーク・ファイル・システム(NFS): データ・ファイルにNFSを使用する場合、Oracle Grid Infrastructure用の
パーティションを作成する際に、データベース・ファイル用のパーティションを十分に大きく作成する必要があることに注
意してください。 NFSマウントは、ソフトウェア・バイナリ、Oracle Clusterwareファイル、データベース・ファイルで、
それぞれ異なります。
注意:
クラスタ用Oracle Grid Infrastructureバイナリをクラスタ・ファイル・システムへ配置するこ
とはできません。
OUIを使用して、Oracle ClusterwareやOracle Databaseのファイルをブロック・デバイスまたは
RAWデバイスにインストールすることはできなくなりました。
参照:
サポートされているファイル・システムと、NFSまたはNASファイラについては、My Oracle
Supportを参照してください。
3.1.2 Oracle Grid InfrastructureおよびOracle RACの記憶域についての一般的な考慮事項
すべてのインストールに対して、Oracle Grid Infrastructure(Oracle ClusterwareおよびOracle ASM)およびOracle Real Application
76
Clustersデータベース(Oracle RAC)に使用する記憶域オプションを選択する必要があります。 また、インストール中に自動バックアップを有
効にするには、リカバリ・ファイル(高速リカバリ領域)に使用する記憶域オプションを選択する必要があります。 各ファイル・タイプに同一
の記憶域を使用する必要はありません。
3.1.2.1 Oracle Clusterwareの記憶域についての一般的な考慮事項
Oracle Clusterware投票ディスクは、クラスタ・ノードのステータスの監視に使用されます。Oracle Cluster Registry(OCR)ファイルには、
クラスタに関する構成情報が格納されます。 投票ディスクとOCRファイルは、ASMディスク・グループ、クラスタ・ファイル・システム、共有
ネットワーク・ファイル・システムのいずれかに配置できます。 記憶域は共有される必要があります。構成されている投票ディスクの大半(過
半数)が利用できないノードは再起動されます。
3.1.2.2 Oracle RACの記憶域についての一般的な考慮事項
次のガイドラインに従って、各ファイル・タイプで使用する記憶域オプションを選択します。
●
●
●
●
選択した記憶域オプションの要件がすべて満たされている場合、各ファイル・タイプでサポートされている記憶域オプションのいずれ
の組合せでも使用できます。
データベース・ファイルおよびリカバリ・ファイルの記憶域オプションとして、Oracle ASMを選択することをお薦めします。
Standard EditionのOracle RACインストールでは、データベース・ファイルまたはリカバリ・ファイルの記憶域オプションとして、
Oracle ASMのみがサポートされています。
Oracle RACでOracle ASMを使用するために新しいOracle ASMインスタンスを構成する場合は、システムが次の条件を満たしている必要
があります。
❍
❍
●
クラスタ用Oracle Grid Infrastructureのインストールの一部として、クラスタ内のすべてのノードにOracle Clusterware
およびOracle ASM 11gリリース2(11.2)がインストールされている。
クラスタ内のすべてのノードで既存のすべてのOracle ASMインスタンスが停止されている。
RAWデバイスやブロック・デバイスは、構成済のパーティションを使用している既存のインストールをアップグレードする場合のみ、
サポートされます。 新規インストールでのRAWデバイスまたはブロック・デバイス・パーティションの使用は、自動ストレージ管理コ
ンフィギュレーション・アシスタント(ASMCA)やOracle Universal Installer(OUI)ではサポートされていません。ただし、手動で
構成を行えば、ソフトウェアでサポートされます。
参照:
既存のデータベースをアップグレードするための準備方法については、『Oracle Databaseアップグレー
ド・ガイド』を参照してください。
●
外部ファイルの冗長性が適用される記憶域オプションがない場合は、3つ以上の投票ディスク領域を構成して、投票ディスクの冗長性
を確保する必要があります。
3.1.3 サポートされている記憶域オプション
次の表に、Oracle ClusterwareおよびOracle RACファイルを格納するために使用できる記憶域オプションを示します。
77
注意:
OCFS2の詳細は、次のWebサイトを参照してください。
http://oss.oracle.com/projects/ocfs2/
共有のOCFS2の場所にOracle RACホームをインストールする場合は、OCFS2を、書込み可能な共有mmapがサポート
されているバージョン1.4.1以上にアップグレードする必要があります。
OCFS2の動作保証と、その他のクラスタ・ファイル・システムのサポートについては、My Oracle Supportの
「Certify」ページを参照してください。
表3-1 Oracle ClusterwareおよびOracle RACでサポートされている記憶域オプション
記憶域オプション
OCRおよび投票
ディスク
Oracle Clusterwareバイナリ
Oracle RACバイ
ナリ
Oracle Databaseファ
イル
Oracleリカバ
リ・ファイル
自動ストレージ管理
可
不可
不可
可
可
自動ストレージ管理クラス
タ・ファイル・システム
(ACFS)
不可
不可
可
不可
不可
動作保証されているNASファ
イラ上のNFSファイル・シス
テム
可
可
可
可
可
OUIおよび
ASMCAでは非サ
ポートだが、
ソフトウェア
でサポート。
インストール
後に追加また
は削除できま
す。
不可
不可
OUIおよびASMCAでは非 不可
サポートだが、ソフト
ウェアでサポート。
インストール後に追加
または削除できます。
注意: Direct NFSはOracle
Clusterwareファイルをサ
ポートしていません。
共有ディスク・パーティショ
ン(ブロック・デバイスまた
はRAWデバイス)
次のガイドラインに従って、記憶域オプションを選択します。
●
●
●
選択した記憶域オプションの要件がすべて満たされている場合、各ファイル・タイプでサポートされている記憶域オプションのいずれ
の組合せでも使用できます。
Oracle Clusterwareファイルは、Oracle ASM 11gリリース2(11.2)を使用して格納できます。 これは、以前のリリースのOracle ASM
では行えません。
外部ファイルの冗長性が適用される記憶域オプションがない場合は、3つ以上の投票ディスクの場所、および3つ以上のOracle
Cluster Registryの場所を構成して、冗長性を確保する必要があります。
3.1.4 ディスクの記憶域オプションを選択した後の作業
78
ディスクの記憶域オプションを決定したら、共有記憶域の構成を行います。
●
ファイル・システムを使用する場合は、「共有ファイル・システムの記憶域の構成」を参照してください。
●
自動ストレージ管理を使用する場合は、「ASMでのOracle Databaseファイルによるディスク・グループの使用」を参照してください。
3.2 共有ファイル・システムの記憶域の構成
インストーラでは、Oracle Cluster Registry(OCR)またはOracle Clusterware投票ディスク用のデフォルトの格納先は提供されません。 ファ
イル・システムにこれらのファイルを作成する場合は、次の項を確認して、Oracle Clusterwareファイル用の記憶域要件を満たしておきます。
●
共有ファイル・システムを使用するための要件
●
Oracle Clusterwareファイル用のクラスタ・ファイル・システムの使用の確認
●
データ・ファイル用のDirect NFSの使用の確認
●
データ・ファイル用のNFSの使用の確認
●
記憶域のNFSマウントおよびバッファ・サイズ・パラメータの構成
●
Oracle Clusterware用のNFSマウントおよびバッファ・サイズ・パラメータの確認
●
Oracle RAC用のNFSマウントおよびバッファ・サイズ・パラメータの確認
●
NFSのDirect NFSクライアントのOracle Disk Manager制御の有効化
●
共有ファイル・システムでのOracle Clusterwareファイル用のディレクトリの作成
●
共有ファイル・システムでのOracle Databaseファイル用のディレクトリの作成
●
NFSのDirect NFSクライアントのOracle Disk Manager制御の無効化
注意:
OCRは、クラスタの構成情報とステータスを含むファイルです。 OCRは、インストーラによって、Oracle
Clusterwareのインストール時に自動的に初期化されます。 Database Configuration Assistantは、OCRを使用し
て、作成するクラスタ・データベースの構成情報を格納します。
3.2.1 共有ファイル・システムを使用するための要件
Oracle Clusterware、Oracle ASM、Oracle RACに共有ファイル・システムを使用するには、ファイル・システムで次の要件を満たす必要があり
ます。
●
NFSファイル・システムを使用するには、動作保証されているNASデバイス上にある必要があります。 次のURLでMy Oracle Supportに
ログインし、「Certify」タブをクリックして、動作保証されているNASデバイスのリストを調べます。
https://metalink.oracle.com/
●
Oracle Cluster Registry(OCR)ファイルを共有ファイル・システムに配置するように選択する場合は、次のいずれかに該当している
ことが推奨されます。
79
❍
❍
●
2つ以上のファイル・システムがマウントされていて、Oracle Clusterware 11g リリース2(11.2)の機能を使用してOCRに
冗長性を提供している。
データベース・ファイルを共有ファイル・システムに配置するように選択する場合、次のいずれかに該当している必要があります。
❍
❍
●
ファイル・システムに使用されるディスクが、高可用性のストレージ・デバイス(RAIDデバイスなど)にある。
ファイル・システムに使用されるディスクが、高可用性のストレージ・デバイス(RAIDデバイスなど)にある。
ファイル・システムは、2つ以上の独立したファイル・システムで構成されています。一方のファイル・システムではデー
タベース・ファイル、もう一方のファイル・システムではリカバリ・ファイルが使用されます。
インストールを実行するユーザー・アカウント(oracleまたはgrid)には、指定したパスにファイルを作成するための書込み権限が必
要です。
注意:
SRVM構成リポジトリに使用したRAWデバイスまたは共有ファイルをOCRに使用しているOracle9iリリース2からの
アップグレードは、サポートされていません。
Oracle Clusterwareをアップグレードする際、既存のクラスタでOCRに100MBのパーティション、投票ディスクに
20MBのパーティションが使用されている場合は、これらのパーティション・サイズを継続して使用できます。
すべてのストレージ製品は、サーバー・ベンダーとストレージ・ベンダーの両方でサポートされている必要があ
ります。
表3-2と表3-3を使用して、共有ファイル・システムの最小サイズを決定します。
表3-2 Oracle Clusterware共有ファイル・システムのボリューム・サイズ要件
格納されるファイル・タイプ
ボリュームの数
ボリュームのサイズ
外部冗長で作成された投票ディスク
3
投票ディスク・ボリュームごとに280MB以上。
外部冗長で作成されたOracle Cluster Registry(OCR)
1
OCRボリュームごとに280MB以上
Oracleソフトウェア提供の冗長で作成されたOracle Clusterwareファイル
(OCRおよび投票ディスク)
1
OCRボリュームごとに280MB以上
投票ディスク・ボリュームごとに280MB以上
表3-3 Oracle RAC共有ファイル・システムのボリューム・サイズ要件
格納されるファイル・タイプ
ボリュームの数
ボリュームのサイズ
Oracle Databaseファイル
1
ボリュームごとに1.5GB以上
80
リカバリ・ファイル
1
ボリュームごとに2GB以上
注意: リカバリ・ファイルはデータベース・ファイルとは異なるボリュームに配置する必要が
あります。
表3-2および表3-3で、必要なボリューム・サイズの合計を加算して求めます。 たとえば、標準冗長を使用してすべてのOracle Clusterwareファ
イルを共有ファイル・システムに格納するには、3つ以上のボリューム(OCRと2つのOCRミラー用に3つの別々のボリューム位置と、ボリュームご
とに1つの投票ディスク)で2GB以上の記憶域が使用可能である必要があります。 投票ディスクおよびOCRファイルを別々の物理ディスクに確実
に配置するには、500MB以上の物理ディスクが3つ以上必要です。 Oracle RACを追加して、データベース・ファイルにボリューム1つ、リカバ
リ・ファイルにボリューム1つを使用する場合、2つのボリュームで3.5GB以上、全ボリュームの合計で5.5GB以上の利用可能な記憶域が必要で
す。
注意:
fdiskでデバイス・サイズ(+300Mなど)を指定し、共有パーティション上にパーティションを作成する際、実際
に作成されるデバイスは、ディスクのシリンダ・ジオメトリに基づいて、要求したサイズより小さくなる場合が
あります。 これは、現在のfdiskの制限事項です。 Oracle ASMで使用するために割り当てるディスク全体をパー
ティション化することをお薦めします。
3.2.2 Oracle Clusterwareファイル用のクラスタ・ファイル・システムの使用の確認
新規インストールの場合は、自動ストレージ管理(Oracle ASM)を使用して、投票ディスクおよびOCRファイルを格納することをお薦めしま
す。 Linux x86(32-bit)およびx86-64(64-bit)プラットフォームでは、クラスタ・ファイル・システムOCFS2を利用できます。 ただし、
OCFS2は、Oracle Clusterwareファイル用に使用しないことをお薦めします。
3.2.3 データ・ファイル用のDirect NFSの使用の確認
カーネルで管理されるNFSのかわりにDirect NFSを使用することもできます。 この項では、Direct NFSについて説明します。内容は次のとおり
です。
●
Direct NFS記憶域について
●
Direct NFSでのoranfstabファイルの使用
●
Direct NFSを使用したNFS記憶域デバイスのマウント
3.2.3.1 Direct NFS記憶域について
Oracle Database 11g リリース2(11.2)では、オペレーティング・システムのカーネルNFSクライアントを使用するかわりに、Oracle内部の
Direct NFSクライアントを使用してNFS V3サーバーに直接アクセスするようにOracle Databaseを構成できます。
Oracle DatabaseでDirect NFSを使用できるようにするには、インストールを開始する前に、NFSファイル・システムをマウントし、通常のNFSマ
ウントを介して使用できるようにする必要があります。 設定は、インストール後にDirect NFSで管理されます。 その場合でも、カーネルのマ
ウント・オプションをバックアップとして設定する必要はありますが、通常の動作では、Direct NFSでNFSマウントが管理されます。
NFSの構成およびマウントを実行する方法については、ベンダーのマニュアルを参照してください。
一部のNFSファイル・サーバーでは、予約されたポートを使用してNFSクライアントを接続する必要があります。 予約されたポートのチェックを
使用してファイラを実行している場合は、Direct NFSが動作するように、予約されたポートのチェックを無効にする必要があります。 予約され
たポートのチェックを無効にする方法については、使用しているNFSファイル・サーバーのドキュメントを参照してください。
81
注意:
Oracle RACで動作保証されているNFSサーバーを使用してください。 動作保証情報については、次のURLを参照し
てください。
https://metalink.oracle.com
3.2.3.2 Direct NFSでのoranfstabファイルの使用
Direct NFSを使用する場合は、Oracleデータ・ファイル管理専用の新しいファイル(oranfstab)を使用して、Direct NFSにOracle Database固有
のオプションを追加指定できます。 たとえば、oranfstabを使用して、マウント・ポイントの追加のパスを指定できます。 oranfstabファイル
は、/etcまたは$ORACLE_HOME/dbsのいずれかに追加できます。
共有Oracleホームでは、oranfstabファイルが$ORACLE_HOME/dbsに格納されている場合、このファイルのエントリは、単一データベースに固
有のエントリとなります。 この場合、Oracle RACデータベースを実行するすべてのノードで同じ$ORACLE_HOME/dbs/oranfstabファイルが使用
されます。 共有されていないRACインストールでは、oranfstabをすべてのノードにコピーする必要があります。
oranfstabファイルが/etcに格納されている場合、このファイルはすべてのOracle Databaseでグローバルに使用できます。また、oranfstabファ
イルには、クラスタ内のノードで実行されているすべてのOracle Database(スタンドアロン・データベースを含む)で使用されるマウント・ポ
イントを含めることができます。 ただし、Oracle RACシステムでは、oranfstabファイルが/etcに格納されている場合、/etc/fstabファイルの場
合と同様に、すべてのノードに/etc/oranfstabファイルをレプリケートし、各/etc/oranfstabファイルをすべてのノードで同期させる必要があり
ます。
参照:
/etc/fstabの構成の詳細は、第3.2.5項「記憶域のNFSマウントおよびバッファ・サイズ・パラメータの構成」を参
照してください。
マウント・ポイントがDirect NFSを使用して処理されているときでも、マウント・ポイントはカーネルNFSシステムによってマウントされる必要
があります。
注意:
Direct NFSは、NFSサーバーの書込みサイズ値(wtmax)が32768未満の場合は機能しません。
3.2.3.3 Direct NFSを使用したNFS記憶域デバイスのマウント
Direct NFSでは、/etc/mtabの構成に基づいてNFS記憶域デバイスに対するマウント・ポイント設定が決定されます。このファイルの構成は、/
etc/fstabファイルの構成によって変更されます。
Direct NFSでは、次の順序でマウント・エントリが検索されます。
1.
$ORACLE_HOME/dbs/oranfstab
2.
/etc/oranfstab
3.
/etc/mtab
Direct NFSでは、最初に検出された一致エントリが使用されます。
注意:
インスタンスごとにアクティブなDirect NFSを1つのみ実装することができます。 インスタンスでDirect NFSを
使用すると、別のDirect NFSは実装できなくなります。
82
Oracle Databaseでoranfstabを使用して構成されたDirect NFSマウント・ポイントを使用する場合は、まず、オペレーティング・システムのNFS
マウント・ポイントを使用してoranfstab内のエントリをクロスチェックすることによってカーネルNFSマウントが検証されます。 不一致が存在
する場合、Direct NFSでは、情報メッセージが記録されますが、動作しません。
Oracle DatabaseでDirect NFSを使用してNFSサーバーを開くことができない場合は、プラットフォームのオペレーティング・システムのカーネ
ルNFSクライアントが使用されます。 この場合、カーネルNFSマウント・オプションは、「Oracle RAC用のNFSマウントおよびバッファ・サイ
ズ・パラメータの確認」で定義されているとおりに設定する必要があります。 また、Direct NFSを確立することができなかったことを示す情報
メッセージが、Oracleアラート・ファイルおよびトレース・ファイルに記録されます。 Direct NFSクライアントによって処理されるNFSサー
バーに存在するOracleファイルにも、オペレーティング・システムのカーネルNFSクライアントを介してアクセスできます。 この場合、Oracle
ファイルの整合性を維持するための通常の考慮事項が適用されます。
3.2.3.4 oranfstabファイルを使用したネットワーク・パスの指定
Direct NFSでは、NFSサーバー用のoranfstabファイルに定義されている最大4つのネットワーク・パスを使用できます。 Direct NFSクライアント
によって、指定したすべてのパス間でロード・バランシングが実行されます。 指定したパスで障害が発生した場合は、Direct NFSによって、残
りのパスに対してI/Oコマンドが再発行されます。
クラスタ環境でDirect NFSを管理するには、次のSQL*Plusのビューを使用します。
●
gv$dnfs_servers: Direct NFSを使用してアクセスしたサーバーの表が表示されます。
●
gv$dnfs_files: Direct NFSを使用して現在開かれているファイルの表が表示されます。
●
●
gv$dnfs_channels: Direct NFSによってファイルが提供されるサーバーに対するオープン・ネットワーク・パス(またはチャネル)の
表が表示されます。
gv$dnfs_stats: Direct NFSのパフォーマンス統計の表が表示されます。
注意:
シングル・インスタンスにはv$ビューを使用し、Oracle ClusterwareおよびOracle RAC記憶域にはgv$ビューを使
用します。
3.2.4 データ・ファイル用のNFSの使用の確認
ネットワーク接続ストレージ(NAS)システムでは、データへのアクセスにNFSが使用されます。 サポートされているNFSシステムにデータ・
ファイルを格納できます。
インストールを開始する前に、NFSファイル・システムをマウントし、NFSマウントを介して使用できるようにする必要があります。 NFSの構成
およびマウントを実行する方法については、ベンダーのマニュアルを参照してください。
OracleソフトウェアおよびデータベースがNASデバイスに格納されている場合、そのパフォーマンスは、OracleサーバーとNASデバイス間のネッ
トワーク接続のパフォーマンスによって左右されることに注意してください。
そのため、サーバーとNASデバイスの接続には、ギガビット・イーサネット以上のプライベートな専用ネットワーク接続を使用することをお薦め
します。
3.2.5 記憶域のNFSマウントおよびバッファ・サイズ・パラメータの構成
グリッド・ホームまたはOracle RACホームにNFSを使用している場合、記憶域にNFSマウントを設定する必要があります。これにより、記憶域に
マウントしているクライアントのrootが、匿名ユーザーにマップされるかわりにrootと見なされ、クライアント・サーバーのrootが、NFSファイ
ル・システム上にroot所有のファイルを作成できるようにします。
NFSでは、サーバー側でno_root_squashを有効にすることで、記憶域に書込みを行うクライアントにrootアクセス権を取得できます。 たとえ
ば、ドメインmycluster.example.comのノードnode1、node2、node3について、パス/vol/gridのOracle Clusterwareファイル記憶域を設定するに
は、次のような行を/etc/exportsファイルに追加します。
83
/vol/grid/ node1.mycluster.example.com(rw,no_root_squash)
node2.mycluster.example.com(rw,no_root_squash) node3.mycluster.example.com
(rw,no_root_squash)
ドメインまたはDNSがセキュアで、許可されていないシステムはそのIPアドレスを取得できない場合には、特定のクラスタ・メンバー・ノードを
指定するのではなく、ドメインごとにrootアクセス権を付与します。
次に例を示します。
/vol/grid/ *.mycluster.example.com(rw,no_root_squash)
この構文を使用すると、NFSサーバーの再構成を行うことなくノードの追加や削除を行えます。セキュアなDNSまたはドメインを使用して、その
ドメインを利用するクラスタ・メンバー・ノードにrootアクセス権を付与することをお薦めします。
グリッド・ネーミング・サービス(GNS)を使用する場合、クラスタ内でGNSによる解決で割り当てられるサブドメインは、セキュアなドメイン
です。 適切に署名されたGPnP(グリッドのプラグ・アンド・プレイ)のプロファイルがないサーバーは、クラスタに参加できません。そのた
め、許可されていないシステムは、GNSサブドメイン内の名前を取得または使用できません。
注意:
ドメイン単位でrootアクセス権を付与すると、システムへの不正アクセスに利用される場合があります。 システ
ム管理者は、no_root_squashの使用に付随するリスクについて、オペレーティング・システムのドキュメントを
参照してください。
/etc/exportsを変更したら、次のコマンドを使用してファイル・システムのマウントをリロードします。
# /usr/sbin/exportfs -avr
3.2.6 Oracle Clusterware用のNFSマウントおよびバッファ・サイズ・パラメータの確認
クラスタ・メンバー・ノード上では、NFSバッファ・サイズ・パラメータrsizeおよびwsizeの値を32768に設定する必要があります。
NFSクライアント側のマウント・オプションは次のとおりです。
rw,bg,hard,nointr,tcp,nfsvers=3,timeo=600,rsize=32768,wsize=32768,actimeo=0
NFSマウント上にOracle Grid Infrastructureのバイナリがある場合は、suidオプションも使用する必要があります。
ご使用のプラットフォームのNFSマウント・オプションを含むエントリで各ノードの/etc/fstabファイルを更新します。 たとえば、プラット
フォームがx86-64であり、Oracle Clusterwareファイル用のマウント・ポイントを作成する場合には、/etc/fstabファイルを次のエントリで更新
します。
nfs_server:/vol/grid /u02/oracle/cwfiles nfs ¥
rw,bg,hard,nointr,rsize=32768,wsize=32768,tcp,vers=3,timeo=600,actimeo=0
Oracleソフトウェアのバイナリ、Oracle Clusterwareファイル(OCRおよび投票ディスク)、データ・ファイルでマウント・ポイント・オプショ
ンが異なることに注意してください。
バイナリ専用のマウント・ポイントを作成するには、バイナリ・マウント・ポイントに次のようなエントリを入力します。
nfs_server:/vol/bin /u02/oracle/grid nfs -yes ¥
rw,bg,hard,nointr,rsize=32768,wsize=32768,tcp,vers=3,timeo=600,actime=0,suid
84
参照:
マウント・オプションの最新情報については、My Oracle Supportのbulletin 359515.1「Mount Options for
Oracle Files When Used with NAS Devices」を参照してください。次のURLから入手可能です。
https://metalink.oracle.com
注意:
マウント・オプションの詳細は、ストレージ・ベンダーのマニュアルを参照してください。
3.2.7 Oracle RAC用のNFSマウントおよびバッファ・サイズ・パラメータの確認
カーネル管理のNFSマウントを使用する場合、データベース・ファイルの格納に使用するNFSボリュームは、特別なマウント・オプションを指定
し、Oracle RACインスタンスのある各ノード上にマウントする必要があります。 NFSファイル・システムをマウントするときは、NASベンダーが
デバイスの動作保証に使用したのと同じマウント・ポイント・オプションを使用することをお薦めします。 推奨されるマウント・ポイント・オ
プションについては、デバイスのドキュメントを参照するか、ベンダーにご相談ください。
ほとんどのベンダーでは、一般に表3-4に示すNFSマウント・オプションの使用を推奨しています。
表3-4 Oracle RAC用のNFSマウント・オプション
オプション
要件
説明
hard
必須
ハード・マウントのNFSファイル・システムを生成します。 サーバーへの接続が失敗するか、一時的に
失われた場合、NASデバイスが応答するまで接続が試行されます。
bg
オプション
接続に失敗したときに、バックグラウンドで接続が試行されます。
rw
必須
読取りアクセスと書込みアクセス。
tcp
オプション
UDPプロトコルではなくTCPプロトコルを使用します。 TCPの方がUDPよりも信頼性に優れています。
vers=3
オプション
NFSバージョン3を使用します。バージョン2のパフォーマンスがそれほど高くないかぎり、可能な場合は
NFSバージョン3を使用することをお薦めします。
suid
オプション
SUIDを有効にして、クライアントがソフトウェア・バイナリを実行できます。 Oracleソフトウェアが格
納されているすべてのNFSマウントに、SUIDが必要です。
rsize
必須
NASデバイスからの読取り時に使用されるバイト数。 この値は、このプラットフォームでサポートされ
ているデータベース・ブロック・サイズの最大値に設定してください。 ほとんどの場合、NFSバージョ
ン2では8192、NFSバージョン3では32768にすることをお薦めします。
wsize
必須
NASデバイスへの書込み時に使用されるバイト数。 この値は、このプラットフォームでサポートされて
いるデータベース・ブロック・サイズの最大値に設定してください。 ほとんどの場合、NFSバージョン2
では8192、NFSバージョン3では32768にすることをお薦めします。
85
nointr(またはintr)
オプション
ハード・マウントされたファイル・システムからの応答を待機している間に、ハングしたプロセスを停
止するキーボード割込みを禁止(または許可)します。
注意: このオプションは、ベンダーごとに推奨設定が異なります。 詳細は、ベンダーに問い合せてくだ
さい。
actime=0
オプション
属性のキャッシングを無効にします。
注意: ソフトウェアのバイナリをインストールするNFSファイル・システムの場合、このオプションを指
定する必要があります。 このオプションを使用しない場合、インストーラは、指定されたディレクトリ
にソフトウェアをインストールしません。
actimeo
オプション
actimeoを使用すると、acregmin、acregmax、acdirmin、acdirmaxのすべてが同じ値に設定されます。
デフォルト値はありません。
timeo
オプション
タイムアウトの設定。 トラフィックが大きいネットワークでのマウント、速度の遅いサーバーへのマウ
ント、複数のルーターやゲートウェイを介したマウントなどの場合は、タイムアウトを増やすことで、
全体的なパフォーマンスが向上することがあります。 タイムアウト値は、TCPタイムアウトの最大値
(600秒)に設定することをお薦めします。
各ノードの/etc/fstabファイルを次のエントリで更新します。
nfs_server:/vol/DATA/oradata /u02/oradata nfs¥
rw,bg,hard,nointr,tcp,nfsvers=3,timeo=600,rsize=32768,wsize=32768,actimeo=0
必須のマウント・オプションは、NFSボリュームのマウント時に使用する必要のある最小限のマウント・オプション・セットを構成します。 こ
れらのマウント・オプションは、データの整合性を保護し、データベースの破損を防ぐために不可欠です。 これらのマウント・オプションを使
用しなかった場合は、ファイル・アクセス・エラーが発生する可能性があります。 ご使用のプラットフォームでサポートされている個々のオプ
ションの詳細は、オペレーティング・システムまたはNASデバイスのドキュメントを参照してください。
参照:
NASマウント・オプションの最新情報については、次のURLにあるMy Oracle SupportのNote 359515.1を参照して
ください。
https://metalink.oracle.com
3.2.8 NFSのDirect NFSクライアントのOracle Disk Manager制御の有効化
Direct NFSを有効にするには、次の手順を実行します。
1.
Direct NFSを使用してアクセスする各NFSサーバーの次の属性を使用してoranfstabファイルを作成します。
❍
❍
❍
サーバー: NFSサーバー名。
ローカル: IPアドレスまたは名前のいずれかで指定された、データベース・ホスト上の最大4つのパス。データベース・ホ
スト上でifconfigコマンドを使用して表示できます。
パス: IPアドレスまたは名前のいずれかで指定された、NFSサーバーへの最大4つのネットワーク・パス。NFSサーバー上で
ifconfigコマンドを使用して表示できます。
86
❍
エクスポート: NFSサーバーからエクスポートされたパス。
❍
マウント: エクスポートされたボリュームに対応する、ローカル・マウント・ポイント。
❍
❍
マウント・タイムアウト: Direct NFSクライアントがマウント成功を待機し、タイムアウトするまでの時間(秒)を指定し
ます。 このパラメータはオプションです。 デフォルトのタイムアウトは10分(600)です。
ルーティング不可: 送信メッセージをオペレーティング・システムでルーティングせず、そのかわりに、バインドされたIP
アドレスを使用して送信するよう指定します。
この後の例では、oranfstabのNFSサーバー・エントリを3種類示しています。 1つのoranfstabに、複数のNFSサーバー・エントリを含
めることができます。
例3-1 ローカルおよびパスのNFSサーバー・エントリを使用
次の例では、ローカルとパスの両方を使用しています。 それぞれが異なるサブネットにあるため、dontrouteを指定する必要があり
ません。
server: MyDataServer1
local: 192.0.2.0
path: 192.0.2.1
local: 192.0.100.0
path: 192.0.100.1
export: /vol/oradata1 mount: /mnt/oradata1
例3-2 同一サブネット内のローカルおよびパスを使用(dontrouteを指定)
次の例では、同一サブネット内のローカルおよびパスを示しています。ここではdontrouteが指定されています。
server: MyDataServer2
local: 192.0.2.0
path: 192.0.2.128
local: 192.0.2.1
path: 192.0.2.129
dontroute
export: /vol/oradata2 mount: /mnt/oradata2
例3-3 IPアドレスのかわりに名前を使用(複数のエクスポート)
server: MyDataServer3
local: LocalPath1
path: NfsPath1
local: LocalPath2
path: NfsPath2
local: LocalPath3
path: NfsPath3
local: LocalPath4
path: NfsPath4
dontroute
export: /vol/oradata3 mount: /mnt/oradata3
export: /vol/oradata4 mount: /mnt/oradata4
export: /vol/oradata5 mount: /mnt/oradata5
export: /vol/oradata6 mount: /mnt/oradata6
2.
Oracle Databaseでは、Direct NFSを有効にするためにODMライブラリlibnfsodm11.soを使用します。 標準のODMライブラリ
$ORACLE_HOME/lib/libodm11.soをODM NFSライブラリlibnfsodm11.soに置き換えるには、すべてのノードで次の手順を実行します
(Oracleホーム・ディレクトリが共有されていない場合)。
1.
$ORACLE_HOME/libに移動します。
2.
次のコマンドを入力します。
87
cp libodm11.so libodm11.so_stub
ln -s libnfsodm11.so libodm11.so
3.2.9 共有ファイル・システムでのOracle Clusterwareファイル用のディレクトリの作成
次の手順に従って、Oracle Clusterwareファイル用のディレクトリを作成します。 また、Oracle Databaseおよびリカバリ・ファイル用に共有
ファイル・システムを構成することもできます。
注意:
NFSおよびOCFS2記憶域のいずれも、Oracleベース・ディレクトリとは別のファイル・システムにOracle
Clusterwareファイルを格納する場合にのみ、この手順を実行する必要があります。
Oracleベース・ディレクトリとは別のファイル・システムにOracle Clusterwareファイル用のディレクトリを作成するには、次の手順を実行し
ます。
1.
必要に応じて、各ノードで使用する共有ファイル・システムを構成し、マウントします。
注意:
ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。
ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認し
てください。
2.
3.
dfコマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。
表示された情報から、使用するファイル・システムを特定します。 600MB以上の空きディスク領域(外部冗長を使用、OCRと投票ディ
スクを1つずつ)があるファイル・システムを選択します。
複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、
ディスク領域要件の合計を判断します。
4.
選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。
5.
インストールを実行しているユーザー(通常、gridかoracle)が、Oracle Clusterwareファイルをインストールする記憶域の場所に
ディレクトリを作成する権限を所有している場合は、OUIによってOracle Clusterwareファイル・ディレクトリが作成されます。
インストールを実行しているユーザーが書込み権限を所有していない場合は、次のコマンドを使用してこれらのディレクトリを手動で
作成する必要があります。次のコマンドでは、それぞれのマウント・ポイント・ディレクトリに推奨されるサブディレクトリが作成さ
れ、そのディレクトリに適切な所有者、グループおよび権限が設定されます。 たとえば、ユーザーがoracle、Oracle Clusterware
ファイルの記憶域がclusterの場合は、次のようになります。
# mkdir /mount_point/cluster
# chown oracle:oinstall /mount_point/cluster
# chmod 775 /mount_point/cluster
注意:
インストール後、Oracle Cluster Registry(OCR)ファイルのインストール・パスにあるディレクトリは
rootが所有し、root以外のアカウントでは書込みできないようにする必要があります。
マウント・ポイント・ディレクトリにサブディレクトリを作成し、適切な所有者、グループおよび権限を設定したら、Oracle Grid
Infrastructure用のOCFS2またはNFSの構成は完了です。
3.2.10 共有ファイル・システムでのOracle Databaseファイル用のディレクトリの作成
88
Oracle Databaseの共有ファイル・システム用のディレクトリ、および(Oracle RACデータベース用などの)リカバリ・ファイル用のディレクト
リを作成するには、次の手順を実行します。
1.
必要に応じて、各ノードで共有ファイル・システムを構成し、マウントします。
注意:
ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。
ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認し
てください。
2.
df -hコマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。
3.
表示された情報から、ファイル・システムを特定します。
ファイル・タイプ
ファイル・システムの要件
データベース・ファイル
次のいずれかを選択します。
❍
1.5GB以上の空き領域を持つ単一のファイル・システム
❍
リカバリ・ファイル
合計1.5GB以上の空き領域を持つ複数のファイル・システム
2GB以上の空き領域を持つ単一のファイル・システムを選択します。
複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、
ディスク領域要件の合計を判断します。
4.
選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。
5.
インストールを実行しているユーザー(通常、oracle)がOracle Databaseをインストールするディスクにディレクトリを作成する権
限を所有している場合は、DBCAによってOracle Databaseファイル・ディレクトリおよびリカバリ・ファイル・ディレクトリが作成さ
れます。
インストールを実行しているユーザーが書込み権限を所有していない場合は、次のコマンドを使用してこれらのディレクトリを手動で
作成する必要があります。次のコマンドでは、それぞれのマウント・ポイント・ディレクトリに推奨されるサブディレクトリが作成さ
れ、適切な所有者、グループおよびそのサブディレクトリの権限が設定されます。
❍
データベース・ファイル・ディレクトリ:
# mkdir /mount_point/oradata
# chown oracle:oinstall /mount_point/oradata
# chmod 775 /mount_point/oradata
❍
リカバリ・ファイル・ディレクトリ(高速リカバリ領域):
# mkdir /mount_point/fast_recovery_area
# chown oracle:oinstall /mount_point/fast_recovery_area
# chmod 775 /mount_point/fast_recovery_area
oinstallグループのメンバーをこれらのディレクトリの所有者にすると、これらのディレクトリが複数のOracleホーム(異なるOSDBAグループによ
るものも含む)から読み取られるようになります。
それぞれのマウント・ポイント・ディレクトリにサブディレクトリを作成し、適切な所有者、グループおよび権限を設定すると、Oracle
Databaseの共有記憶域用のOCFS2またはNFSの構成は完了です。
3.2.11 NFSのDirect NFSクライアントのOracle Disk Manager制御の無効化
89
Direct NFSクライアントを無効にするには、次のいずれかの方法を使用します。
●
●
●
oranfstabファイルを削除します。
「NFSのDirect NFSクライアントのOracle Disk Manager制御の有効化」の手順2bで実行したプロセスを取り消すことによって、スタブ
であるlibodm11.soファイルをリストアします。
すべてのノード上で、oranfstabファイル内の特定のNFSサーバーまたはエクスポート・パスを削除します。
注意:
Oracle Databaseで使用されているNFSパスを削除する場合は、データベースを再起動してその変更を有効にする
必要があります。
3.3 自動ストレージ管理の記憶域の構成
次の項で、自動ストレージ管理の記憶域の構成について説明します。
●
自動ストレージ管理用の記憶域の構成
●
ASMでのOracle Databaseファイルによるディスク・グループの使用
●
Oracle自動ストレージ管理クラスタ・ファイル・システム(ACFS)の構成
●
既存のOracle ASMインスタンスの移行
●
スタンドアロンのOracle ASM環境からクラスタ化されたOracle ASM環境への変換
3.3.1 自動ストレージ管理用の記憶域の構成
この項では、自動ストレージ管理で使用する記憶域の構成方法について説明します。
●
自動ストレージ管理の記憶域要件の指定
●
自動ストレージ管理で使用するNASデバイスでのファイルの作成
●
既存の自動ストレージ管理ディスク・グループの使用
●
ASMLIBを使用した自動ストレージ管理用のディスクの構成
●
Oracle ASM用のディスク・デバイスの手動構成
3.3.1.1 自動ストレージ管理の記憶域要件の指定
自動ストレージ管理を使用するための記憶域要件を指定するには、必要なデバイス数およびディスクの空き領域を確認する必要があります。 こ
の作業を実行するには、次の手順を実行します。
1.
自動ストレージ管理を、Oracle Clusterwareファイル(OCRおよび投票ディスク)、Oracle Databaseファイルまたはリカバリ・ファイ
ルに使用するか、Oracle ClusterwareおよびOracle Databaseのバイナリを除くすべてのファイルに使用するかを決定します。
Oracle Databaseファイルには、データ・ファイル、制御ファイル、REDOログ・ファイル、サーバー・パラメータ・ファイルおよびパ
スワード・ファイルが含まれています。
90
注意:
Oracle Clusterware、Oracle Databaseファイルおよびリカバリ・ファイルに対して、同じメカニズムの
記憶域を使用する必要はありません。 一方のファイル・タイプに共有ファイル・システムを、他方に自
動ストレージ管理を使用することもできます。
自動バックアップを有効にすることを選択し、使用可能な共有ファイル・システムがない場合は、リカバ
リ・ファイルの記憶域に自動ストレージ管理を使用する必要があります。
インストール時に自動バックアップを有効にしている場合、高速リカバリ領域に自動ストレージ管理ディスク・グループを指定して、
リカバリ・ファイル用の記憶域メカニズムとして自動ストレージ管理を選択できます。 インストール時に選択するデータベースの作
成方法に応じて次のいずれかを選択します。
❍
❍
2.
ASMCAを対話型モードで実行するインストール方法を選択した場合(アドバンスト・データベース構成オプションを選択し
た場合など)、データベース・ファイルおよびリカバリ・ファイルに同じ自動ストレージ管理ディスク・グループを使用す
るか、または各ファイル・タイプに別の障害グループを使用するかを選択できます。
DBCAを非対話型モードで実行するインストール方法を選択した場合は、データベース・ファイルとリカバリ・ファイルに同
じ自動ストレージ管理ディスク・グループを使用する必要があります。
自動ストレージ管理ディスク・グループに使用する自動ストレージ管理の冗長レベルを選択します。
自動ストレージ管理ディスク・グループに選択した冗長レベルによって、自動ストレージ管理でディスク・グループ内のファイルをミ
ラー化する方法および必要となるディスク数と空きディスク領域は次のようになります。
❍
外部冗長
外部冗長ディスク・グループでは、最小で1台のディスク・デバイスが必要です。 外部冗長のディスク・グループで有効な
ディスク領域は、全デバイスのディスク領域の合計です。
自動ストレージ管理は外部冗長ディスク・グループ内のデータをミラー化しないため、RAIDなどのストレージ・デバイスに
よる外部冗長を使用するか、または独自のデータ保護メカニズムを持つ類似デバイスを使用することをお薦めします。
❍
標準冗長
標準冗長ディスク・グループでは、パフォーマンスおよび信頼性を向上させるために、自動ストレージ管理はデフォルトで
2方向のミラー化を使用します。 標準冗長ディスク・グループでは、最小で2台のディスク・デバイス(または2つの障害グ
ループ)が必要です。 標準冗長のディスク・グループで有効なディスク領域は、すべてのデバイスのディスク領域の合計
の半分です。
Oracle Clusterwareファイルの場合、標準冗長ディスク・グループでは、投票ディスク・ファイルが3つ、OCRが1つ、コ
ピーが2つ(1つはプライマリ、1つはセカンダリ・ミラー)になります。 標準冗長のクラスタは、障害グループを1つ失っ
ても存続できます。
ほとんどの使用環境では、標準冗長を選択することをお薦めします。
❍
高冗長
高冗長ディスク・グループでは、自動ストレージ管理はデフォルトで3方向のミラー化を使用してパフォーマンスを向上さ
せ、最高レベルの信頼性を提供します。 高冗長ディスク・グループでは、最小で3台のディスク・デバイス(または3つの
障害グループ)が必要です。 高冗長のディスク・グループで有効なディスク領域は、全デバイスのディスク領域の合計の3
分の1です。
Oracle Clusterwareファイルの場合、高冗長ディスク・グループでは、投票ディスク・ファイルが5つ、OCRが1つ、コピー
が3つ(1つはプライマリ、2つはセカンダリ・ミラー)になります。 高冗長のクラスタは、障害グループを2つ失っても存
続できます。
91
高冗長ディスク・グループでは、高レベルのデータ保護が提供されますが、この冗長レベルの使用を決定する前に、追加す
るストレージ・デバイスのコストを考慮する必要があります。
3.
Oracle Clusterwareファイルと、データベース・ファイルおよびリカバリ・ファイルに必要なディスク領域の合計容量を決定します。
表3-5と表3-6を使用して、Oracle Clusterwareファイルのインストールと、初期データベースのインストールに必要なディスクの最小
台数およびディスクの最小領域を決定します。投票ディスクは別のディスク・グループにあるものとします。
表3-5 冗長タイプによるOracle Clusterwareに必要な記憶領域の合計
冗長レベル
ディスクの最小台数
Oracle Cluster Registry(OCR)ファイル
投票ディスク・ファイル
合計
外部
1
280MB
280MB
560MB
標準
3
560MB
840MB
1.4GB脚注1
高
5
840MB
1.4GB
2.3GB
脚注1
インストール中にディスク・グループを作成する場合は、2GB以上にする必要があります。
注意:
投票ディスク・ファイルがディスク・グループにある場合、Oracle Clusterwareファイル(OCRおよび投
票ディスク)があるディスク・グループの障害グループの最小数は、他のディスク・グループよりも多く
なります。
インストール中に、OCRおよび投票ディスク・ファイルのインストール先としてディスク・グループを作
成する場合、使用可能な領域が2GB以上あるディスク・グループ上にこれらのファイルを作成するよう、
インストーラによって求められます。
表3-6 冗長タイプによるOracle Databaseに必要な記憶領域の合計
4.
冗長レベル
ディスクの最小台数
データベース・ファイル
リカバリ・ファイル
合計
外部
1
1.5GB
3GB
4.5GB
標準
2
3GB
6GB
9GB
高
3
4.5GB
9GB
13.5GB
Oracle Clusterwareインストールでは、自動ストレージ管理のメタデータ用にディスク領域を追加する必要もあります。 次の計算式
を使用して、追加のディスク領域の要件を計算します(単位: MB)。
合計 = [2 * ausize * disks] + [redundancy * (ausize * (nodes * (clients + 1) + 30) + (64 * nodes) + 533)]
説明は次のとおりです。
❍
redundancy: ミラー数(外部 = 1、標準 = 2、高 = 3)
92
❍
ausize: メタデータのAUサイズ(MB単位)
❍
nodes: クラスタ内のノード数
❍
clients: 各ノードのデータベース・インスタンス数
❍
disks: ディスク・グループ内のディスク数
たとえば、標準冗長ディスク・グループに3台のディスクを使用する4ノードのOracle RACインストールでは、1684MBの追加領域が必要
になります。
[2 * 1 * 3] + [2 * (1 * (4 * (4 + 1) + 30) + (64 * 4) + 533)] = 1684MB
Oracle ASMでのOracle Clusterwareファイルの高可用性を確保するには、Oracle Clusterwareファイル用として、別々の3つの障害グ
ループ(物理ディスクは3つ以上)に2GB以上のディスク容量が必要です。 各ディスクには1GB以上の容量を確保して、容量に余裕を
持ってOracle Clusterwareファイルを作成できるようにする必要があります。
5.
Oracle RACインストールでは、自動ストレージ管理のメタデータ用にディスク領域を追加する必要もあります。 次の計算式を使用し
て、追加のディスク領域の要件を計算します(単位: MB)。
合計 = [2 * ausize * disks] + [redundancy * (ausize * (nodes * (clients + 1) + 30) + (64 * nodes) + 533)]
説明は次のとおりです。
❍
ausize: メタデータのAUサイズ(MB単位)
❍
clients: 各ノードのデータベース・インスタンス数
❍
disks: ディスク・グループ内のディスク数
❍
nodes: クラスタ内のノード数
❍
redundancy: ミラー数(外部 = 1、標準 = 2、高 = 3)
たとえば、標準冗長ディスク・グループに3台のディスクを使用する4ノードのOracle RACインストールでは、1684MBの追加ディスク領
域が必要になります。
[2 * 1 * 3] + [2 * (1 * (4 * (4 + 1) + 30) + (64 * 4) + 533)] = 1684MB
システム上ですでに自動ストレージ管理インスタンスが実行されている場合は、これらの記憶域要件を満たすために既存のディスク・
グループを使用できます。 インストール時、必要に応じて、既存のディスク・グループにディスクを追加できます。
6.
必要な場合は、自動ストレージ管理ディスク・グループのデバイスに障害グループを指定します。
注意:
Database Configuration Assistantを対話型モードで実行するインストール方法を使用する場合(カスタ
ム・インストール・タイプやアドバンスト・データベース構成オプションを選択する場合など)にのみ、
この手順を実行します。 他のインストール・タイプでは、障害グループを指定できません。
標準または高冗長ディスク・グループを使用する場合は、カスタム障害グループのディスク・デバイスを関連付けることによって、
ハードウェア障害に対するデータベースの保護を強化できます。 デフォルトでは、各デバイスに独自の障害グループが含まれます。
ただし、標準冗長ディスク・グループの2台のディスク・デバイスが同じSCSIコントローラに接続されている場合、コントローラに障
害が発生すると、ディスク・グループは使用できなくなります。 この例でのコントローラは、シングル・ポイント障害です。
93
このタイプの障害を防止するためには、2つのSCSIコントローラを使用します。各コントローラに2台のディスクを接続し、各コント
ローラに接続されたディスクに障害グループを定義します。 この構成では、ディスク・グループが1つのSCSIコントローラの障害を許
容できるようになります。
注意:
インストール後に、GUIツールのASMCA、コマンドライン・ツールのasmctl、またはSQLコマンドを使用し
て、カスタム障害グループを定義します。
カスタム障害グループを定義する際、データベース・ファイルのみを格納する障害グループの場合、標準
冗長ディスク・グループでは最小で2つの障害グループ、高冗長ディスク・グループでは3つの障害グルー
プを指定する必要があります。
データベース・ファイルと、投票ディスクを含むClusterwareファイルを格納する障害グループの場合
は、標準冗長ディスク・グループでは3つ以上の障害グループ、高冗長ディスク・グループでは5つ以上の
障害グループを指定する必要があります。
投票ファイルを格納するディスク・グループの場合、標準冗長では最小で3つの障害グループ、高冗長で
は最小で5つの障害グループが必要です。 それ以外の場合、最小数はそれぞれ2つと3つです。 障害グ
ループの最小数は、カスタム障害グループかどうかにかかわらず適用されます。
7.
システムに適切なディスク・グループが存在しない場合は、適切なディスク・デバイスを設置または指定して、新しいディスク・グ
ループを追加します。 次のガイドラインに従って、適切なディスク・デバイスを指定します。
❍
❍
❍
自動ストレージ管理ディスク・グループのすべてのデバイスは、サイズおよびパフォーマンス特性が同じである必要があり
ます。
単一の物理ディスクにある複数のパーティションを、1つのディスク・グループのデバイスとして指定しないでください。
自動ストレージ管理は、各ディスク・グループのデバイスが、別々の物理ディスク上に存在するとみなします。
論理ボリュームは、自動ストレージ管理ディスク・グループのデバイスとして指定できますが、これを使用することはお薦
めしません。 論理ボリューム・マネージャは、物理ディスク・アーキテクチャを隠すことができ、これによって自動スト
レージ管理による物理デバイス間のI/Oの最適化が行われなくなります。 これらは、Oracle RACではサポートされていませ
ん。
3.3.1.2 自動ストレージ管理で使用するNASデバイスでのファイルの作成
動作保証されているNASストレージ・デバイスがある場合は、NFSマウント・ディレクトリにゼロ埋込みファイルを作成し、そのファイルを自動
ストレージ管理ディスク・グループのディスク・デバイスとして使用できます。
そのファイルを作成するには、次の手順を実行します。
1.
必要に応じて、NASデバイスのディスク・グループ・ファイル用にエクスポート・ディレクトリを作成します。
この手順の実行方法の詳細は、NASデバイスのドキュメントを参照してください。
2.
ユーザーをrootに切り替えます。
3.
マウント・ポイント・ディレクトリをローカル・システムに作成します。 次に例を示します。
# mkdir -p /mnt/oracleasm
4.
システムの再起動時にNFSファイル・システムが確実にマウントされるように、マウント・ファイル/etc/fstabにファイル・システムの
エントリを追加します。
94
参照:
NASマウント・オプションの最新情報については、次のURLにあるMy Oracle SupportのNote 359515.1を参
照してください。
https://metalink.oracle.com
オペレーティング・システムに対応したマウント・ファイルの編集方法の詳細は、manページを参照してください。 推奨されるマウ
ント・オプションの詳細は、「Oracle RAC用のNFSマウントおよびバッファ・サイズ・パラメータの確認」を参照してください。
5.
次のようなコマンドを入力し、ローカル・システムにNFSファイルシステムをマウントします。
# mount /mnt/oracleasm
6.
作成するディスク・グループの名前を選択します。 たとえば、sales1を選択します。
7.
NFSファイル・システムにファイルのディレクトリを作成します。ディレクトリ名には、ディスク・グループの名前を付けます。 次に
例を示します。
# mkdir /mnt/oracleasm/nfsdg
8.
次のようなコマンドを使用して、このディレクトリに必要な数のゼロ埋込みファイルを作成します。
# dd if=/dev/zero of=/mnt/oracleasm/nfsdg/disk1 bs=1024k count=1000
この例では、NFSファイル・システムに1GBのファイルを作成します。 外部冗長、標準冗長または高冗長のディスク・グループを作成
するには、それぞれ1つ、2つまたは3つのファイルを作成する必要があります。
9.
作成したディレクトリとファイルの所有者、グループおよび権限を変更するには、次のようなコマンドを入力します。インストール所
有者はgrid、OSASMグループはasmadminです。
# chown -R grid:asmadmin /mnt/oracleasm
# chmod -R 660 /mnt/oracleasm
10.
Oracle RACまたはスタンドアロンのOracle Databaseをインストールする場合は、インストール時に、自動ストレージ管理のディスク
検出文字列を編集して、作成したファイル名と一致する正規表現を指定します。 次に例を示します。
/mnt/oracleasm/sales1/
注意:
インストール中、Oracle ASMでマウントされ文字列ORCL:*でASMLIBに登録されたディスク・パスが、デ
フォルトのデータベース記憶域の候補ディスクとして一覧表示されます。
3.3.1.3 既存の自動ストレージ管理ディスク・グループの使用
既存の自動ストレージ管理ディスク・グループにデータベース・ファイルまたはリカバリ・ファイルを格納するには、選択したインストール方
法に応じて、次のいずれかを選択できます。
●
Database Configuration Assistantを対話型モードで実行するインストール方法を選択した場合(アドバンスト・データベース構成オ
プションを選択した場合など)、新しいディスク・グループを作成するか、または既存のディスク・グループを使用するかを選択でき
ます。
インストール後にDatabase Configuration Assistantを使用してデータベースを作成する場合に、同じ選択内容を使用できます。
95
●
Database Configuration Assistantを非対話型モードで実行するインストール方法を選択した場合、新しいデータベースには既存の
ディスク・グループを選択する必要があり、新しいディスク・グループは作成できません。 ただし、要件に対して既存ディスク・グ
ループの空き領域が不十分である場合は、既存ディスク・グループにディスク・デバイスを追加できます。
注意:
既存ディスク・グループを管理する自動ストレージ管理インスタンスは、異なるOracleホーム・ディレクトリで
実行されている可能性があります。
既存の自動ストレージ管理ディスク・グループが存在するかどうか、またはディスク・グループに十分なディスク領域があるかどうかを判断す
るために、ASMコマンドライン・ツール(asmcmd)、Oracle Enterprise Manager Grid ControlまたはDatabase Controlを使用できます。 ま
た、次の手順も使用できます。
1.
oratabファイルの内容を表示して、自動ストレージ管理インスタンスがシステムに組み込まれているかどうかを判断します。
$ more /etc/oratab
自動ストレージ管理インスタンスがシステムに組み込まれている場合、oratabファイルには次のような行が含まれます。
+ASM2:oracle_home_path
この例では、+ASM2は自動ストレージ管理インスタンスのシステム識別子(SID)、oracle_home_pathは自動ストレージ管理インス
タンスが組み込まれているOracleホーム・ディレクトリです。 表記規則により、自動ストレージ管理インスタンスのSIDは、プラス
(+)記号で始まります。
2.
環境変数ORACLE_SIDおよびORACLE_HOMEを設定して、自動ストレージ管理インスタンスに対して適切な値を指定します。
3.
自動ストレージ管理インスタンスに接続し、必要に応じてインスタンスを起動します。
$ $ORACLE_HOME/bin/asmcmd
ASMCMD> startup
4.
次のコマンドのいずれかを入力して、既存のディスク・グループ、それらの冗長レベルおよび各グループでのディスクの空き領域を表
示します。
ASMCMD> lsdb
または
$ORACLE_HOME/bin/asmcmd -p lsdg
5.
出力結果から、適切な冗長レベルが設定されているディスク・グループを特定し、そのディスク・グループにある空き領域を記録しま
す。
6.
必要に応じて、前述の記憶域要件を満たすために必要な追加のディスク・デバイスを設置または指定します。
注意:
既存のディスク・グループにデバイスを追加する場合は、サイズおよびパフォーマンス特性が、そのディ
スク・グループ内の既存デバイスと同じであるデバイスの使用をお薦めします。
3.3.1.4 ASMLIBを使用した自動ストレージ管理用のディスクの構成
自動ストレージ管理ライブラリ・ドライバ(ASMLIB)を使用すると、システムを再起動するたびにOracle ASMで使用するディスク・デバイスを
リバインドする必要がなくなるため、ディスク・デバイスの構成および管理が簡単になります。
96
ASMLIB Linux 2.6以上のカーネルがないときは、権限ファイルかルール・ファイルをクラスタ・メンバー・ノードごとに作成しなければ、ブ
ロック・デバイス・パスの永続的な権限とパスを保持することはできません。/dev/sdaであったブロック・デバイス・パスが、システムの再起
動後は/dev/sdbとして表示されることがあります。 新しいディスクを追加する際には、udevファイルを変更して、新しいディスクの永続的な権
限とパスを指定する必要があります。
ASMLIBで、Oracle ASMディスクとして使用可能にするディスク範囲を定義します。 ASMLIBによって、ストレージ・デバイス上で永続する権限と
ディスク・ラベルが保持されます。そのため、オペレーティング・システムのアップグレード後でもそのラベルを使用できます。 ノードごとに
oracleasmコマンドを1回実行して、すべてのクラスタ・メンバー・ノードでストレージ・パスを更新できます。
Linuxのデータベース記憶域にブロック・デバイス上の自動ストレージ管理を使用する場合は、ASMLIBドライバと関連ユーティリティをインス
トールし、これらを使用してASM用のディスクを構成することをお薦めします。
自動ストレージ管理ライブラリ(ASMLIB)・ドライバを使用して自動ストレージ管理デバイスを構成するには、次の作業を行います。
●
ASMライブラリ・ドライバ・ソフトウェアのインストールおよび構成
●
x86システムでASMライブラリ・ドライバを使用するためのディスク・デバイスの構成
●
ASMライブラリ・ドライバおよびディスクの管理
注意:
ASMライブラリ・ドライバを使用して、インストール中にデータベースを作成するには、対話型モードでASMCAを
実行するインストール方法を選択する必要があります。 また、デフォルトのディスク検出文字列をORCL:*に変更
する必要があります。
3.3.1.4.1 ASMライブラリ・ドライバ・ソフトウェアのインストールおよび構成
Unbreakable Linux Networkのメンバーの場合、Oracle Software for Enterprise Linuxチャネルをサブスクライブし、up2dateを使用してシス
テムおよびカーネルの最新パッケージを取得することによって、ASMLIB rpmsをインストールできます。 詳細は、次のURLを参照してください。
http://www.oracle.com/technology/tech/linux/asmlib/uln.html
ASMLIBドライバ・ソフトウェアを手動でインストールおよび構成するには、次の手順を実行します。
1.
次のコマンドを入力して、システムのカーネル・バージョンおよびアーキテクチャを判別します。
# uname -rm
2.
次のOTN Webサイトから必要なASMLIBパッケージをダウンロードします。
http://www.oracle.com/technology/tech/linux/asmlib/index.html
注意:
Red Hat Enterprise Linux Advanced ServerまたはSUSE Linux Enterprise ServerでASMLIBを使用するに
は、oracleasm-supportパッケージのバージョン2.0.1以上をインストールする必要があります。
次のパッケージをインストールする必要があります。versionはASMLIBドライバのバージョン、archはシステム・アーキテクチャ、
kernelは使用しているカーネル・バージョンです。
oracleasm-support-version.arch.rpm
oracleasm-kernel-version.arch.rpm
oracleasmlib-version.arch.rpm
97
3.
ユーザーをrootユーザーに切り替えます。
$ su -
4.
次のコマンドを入力して、パッケージをインストールします。
# rpm -Uvh oracleasm-support-version.arch.rpm ¥
oracleasm-kernel-version.arch.rpm ¥
oracleasmlib-version.arch.rpm
たとえば、AMD64システムでRed Hat Enterprise Linux AS 4のエンタープライズ・カーネルを使用している場合は、次のコマンドを入
力します。
# rpm -Uvh oracleasm-support-2.0.1.x86_64.rpm ¥
oracleasmlib-2.0.1.x86_64.rpm ¥
oracleasm-2.6.9-11.EL-2.0.1.x86_64.rpm
5.
次のコマンドを入力して、oracleasm初期化スクリプトを、configureオプションを指定して実行します。
# /usr/sbin/oracleasm configure -i
注意:
/usr/sbinにあるoracleasmコマンドを使用してください。 /etc/init.dパスは非推奨ではありませんが、こ
のパスにあるoracleasmバイナリは、現在では通常、内部コマンドに使用されています。
6.
スクリプトで表示されるプロンプトへの応答で、次の情報を入力します。
プロンプト
推奨される応答
Default user to own the driver interface:
グループおよびユーザーの標準構成: Oracleソフトウェア所有者
ユーザー(oracleなど)を指定します。
役割区分によるグループおよびユーザーの構成: グリッド・イン
フラストラクチャ・ソフトウェア所有者(gridなど)を指定しま
す。
Default group to own the driver interface:
グループおよびユーザーの標準構成: データベースのOSDBAグルー
プ(dbaなど)を指定します。
役割区分によるグループおよびユーザーの構成: 記憶域管理の
OSASMグループ(asmadminなど)を指定します。
Start Oracle Automatic Storage Management Library
driver on boot (y/n):
システムの起動時にOracle Automatic Storage Managementライブ
ラリ・ドライバを起動するには、yと入力します。
Fix permissions of Oracle ASM disks on boot? (y/n)
システムの起動時にOracle ASMディスクの権限を修正するには、y
と入力します。
スクリプトによって、次の作業が実行されます。
❍
❍
/etc/sysconfig/oracleasm構成ファイルの作成
/dev/oracleasmマウント・ポイントの作成
98
❍
ASMLIBドライバのファイル・システムのマウント
注意:
ASMLIBドライバのファイル・システムは、通常のファイル・システムではありません。 自動ス
トレージ管理ドライバと通信する自動ストレージ管理ライブラリでのみ使用されます。
7.
次のコマンドを入力して、oracleasmカーネル・モジュールをロードします。
# /usr/sbin/oracleasm init
8.
Oracle RACのインストール先となるクラスタ内のすべてのノードでこの手順を繰り返します。
3.3.1.4.2 x86システムでASMライブラリ・ドライバを使用するためのディスク・デバイスの構成
自動ストレージ管理ディスク・グループで使用するディスク・デバイスを構成するには、次の手順を実行します。
1.
自動ストレージ管理ディスク・グループでIDE、SCSIまたはRAIDデバイスを使用する場合は、次の手順を実行します。
1.
必要に応じて、ディスク・グループで使用する共有ディスク・デバイスを設置または構成し、システムを再起動します。
2.
次のコマンドを入力して、使用するディスクのデバイス名を確認します。
# /sbin/fdisk -l
デバイス名は、ディスク・タイプによって異なることがあります。
ディスク・タイプ
デバイス名の形式
説明
IDEディスク
/dev/hdxn
この例で、xは、IDEディスクを識別する文字です。また、nは、パーティション
の番号です。 たとえば、/dev/hdaは、第1 IDEバスの第1ディスクです。
SCSIディスク
/dev/sdxn
この例で、xは、SCSIディスクを識別する文字です。また、nは、パーティショ
ンの番号です。 たとえば、/dev/sdaは、第1 SCSIバスの第1ディスクです。
ディスク・グループにデバイスを含めるには、ドライブ・デバイス名またはパーティション・デバイス名のいずれかを指定
します。
注意:
各ディスクに、単一のディスク全体パーティションを作成することをお薦めします。
2.
●
fdiskまたはpartedのいずれかを使用して、ディスク・デバイスに、単一のディスク全体パーティションを作成します。
次のコマンドを入力して、ディスクを自動ストレージ管理ディスクとしてマークします。
# /usr/sbin/oracleasm createdisk DISK1 /dev/sdb1
この例で、DISK1はディスクに割り当てる名前です。
99
注意:
ディスク名に使用できる文字は、大文字、数字およびアンダースコアです。 大文字で始める必要があります。
自動ストレージ管理でマルチ・パス・ディスク・ドライバを使用している場合は、そのディスクに正しい論理デ
バイス名を指定してください。
●
ディスクをクラスタ内の他のノードで使用可能にするには、各ノードでrootとして次のコマンドを入力します。
# /usr/sbin/oracleasm scandisks
このコマンドによって、自動ストレージ管理ディスクとしてマークされているノードに接続されている共有ディスクが識別されます。
3.3.1.4.3 ASMライブラリ・ドライバおよびディスクの管理
自動ストレージ管理ライブラリ・ドライバおよびディスクを管理するには、表3-7に示す様々なオプションとともにoracleasm初期化スクリプト
を使用します。
表3-7 ORACLEASMスクリプト・オプション
オプション
説明
configure
必要に応じて、configureオプションを使用して自動ストレージ管理ライブラリ・ドライバを再構成します。
# /usr/sbin/oracleasm configure -i
コマンド・オプションを表示するには、oracleasm configureを-iフラグなしで入力します。
enable
disable
disableおよびenableオプションを使用して、システムの起動時の自動ストレージ管理ライブラリ・ドライバの動作を変更しま
す。 enableオプションを使用すると、システムの起動時に自動ストレージ管理ライブラリ・ドライバがロードされます。
# /usr/sbin/oracleasm enable
start
stop
restart
start、stopおよびrestartオプションを使用して、システムを起動せずに自動ストレージ管理ライブラリ・ドライバをロードまた
はアンロードします。
# /usr/sbin/oracleasm restart
createdisk
creatediskオプションを使用して、自動ストレージ管理ライブラリ・ドライバで使用するディスク・デバイスをマークし、名前を
付けます。
# /usr/sbin/oracleasm createdisk DISKNAME devicename
deletedisk
deletediskオプションを使用して、名前付きのディスク・デバイスのマークを外します。
# /usr/sbin/oracleasm deletedisk DISKNAME
注意: このコマンドを使用して、自動ストレージ管理ディスク・グループで使用されているディスクのマークは外さないでくだ
さい。 このディスクは、自動ストレージ管理ディスク・グループから削除した後でマークを外す必要があります。
100
querydisk
querydiskオプションを使用して、ディスク・デバイスまたはディスク名が自動ストレージ管理ライブラリ・ドライバで使用され
ているかどうかを確認します。
# /usr/sbin/oracleasm querydisk {DISKNAME ¦ devicename}
listdisks
listdisksオプションを使用して、マークされた自動ストレージ管理ライブラリ・ドライバ・ディスクのディスク名を表示します。
# /usr/sbin/oracleasm listdisks
scandisks
scandisksオプションを使用すると、別のノードで自動ストレージ管理ライブラリ・ドライバ・ディスクとしてマークされている
共有ディスクを、クラスタ・ノードで識別できます。
# /usr/sbin/oracleasm scandisks
3.3.1.5 Oracle ASM用のディスク・デバイスの手動構成
サーバーが起動すると、デフォルトでは、2.6カーネル・デバイス・ファイル・ネーミング・スキームのudevによってデバイス・ファイル名が自
動的に作成され、その所有権がrootに割り当てられます。 udevでデフォルトの設定が適用される場合は、投票ディスクまたはOracle Cluster
Registryパーティションのデバイス・ファイル名と所有者が変更されるため、サーバーの再起動時に内容が破損します。 たとえば、ユーザー
gridが所有する/dev/sddというデバイス上の投票ディスクが、サーバーの再起動後には、rootが所有する/dev/sdfというデバイスに置かれる可能
性もあります。ASMLIBを使用する場合は、udev内で永続的な権限とデバイス・パスを指定する必要がありません。
ASMLIBを使用しない場合は、カスタム・ルール・ファイルを作成する必要があります。 udevが起動すると、ルール・ファイルに定義されたルー
ル(構成ディレクティブ)が順次実行されます。 これらのファイルは、パス/etc/udev/rules.d/にあります。 ルール・ファイルは、字句順に読
み取られます。 たとえば、ファイル10-wacom.rules内にあるルールは、ルール・ファイル90-ib.rules内にあるルールより先に解析され実行され
ます。
複数のルール・ファイルに同じデバイスの記述があった場合、Asianux、Red HatおよびOracle Enterprise Linuxでは、最後に読み取られたファ
イルが適用されます。 SUSE 2.6カーネルでは、最初に読み取られたファイルが適用されます。
ディスク・デバイスの権限ファイルを構成するには、次の作業を行います。
1.
/etc/scsi_id.configファイルを編集し、options=-gを追加することで、SCSIデバイスを信頼できるデバイス(ホワイト・リスト)とし
て構成します。 次に例を示します。
# cat > /etc/scsi_id.config
vendor="ATA",options=-p 0x80
options=-g
2.
テキスト・エディタを使用してOracle ASMデバイス用のUDEVルール・ファイルを作成し、インストール所有者と、メンバーがグリッ
ド・インフラストラクチャ・ソフトウェアの管理者であるグループの権限を0660に設定します。 たとえば、インストール所有者grid
を使用し、さらにOSASMグループasmadminによるロール・ベースのグループ構成を使用します。
# vi /etc/udev/rules.d/99-oracle-asmdevices.rules
KERNEL=="sd?1", BUS=="scsi", PROGRAM=="/sbin/scsi_id",
RESULT=="14f70656e66696c00000000", OWNER="grid", GROUP="asmadmin", MODE="0660"
KERNEL=="sd?2", BUS=="scsi", PROGRAM=="/sbin/scsi_id",
RESULT=="14f70656e66696c00000000", OWNER="grid", GROUP="asmadmin", MODE="0660"
KERNEL=="sd?3", BUS=="scsi", PROGRAM=="/sbin/scsi_id",
RESULT=="14f70656e66696c00000000", OWNER="grid", GROUP="asmadmin", MODE="0660"
3.
rules.dファイルを、クラスタ上の他のすべてのノードにコピーします。 次に例を示します。
# scp 99-oracle-asmdevices.rules root@node2:/etc/udev/rules.d/99-oracle-asmdevices.rules
101
4.
/sbin/partprobe devicenameを使用して、更新されたブロック・デバイス・パーティション表をクラスタのすべてのメンバー・ノー
ドにロードします。 この操作は、rootで行う必要があります。
5.
UDEVサービスを再起動するコマンドを入力します。
Asianux、OEL5およびRHEL5の場合、コマンドは次のとおりです。
# /sbin/udevcontrol reload_rules
# /sbin/start_udev
SLES10の場合、コマンドは次のとおりです。
# /etc/init.d boot.udev restart
システムが正しく構成されていることを確認します。
3.3.2 ASMでのOracle Databaseファイルによるディスク・グループの使用
次の項で、Oracle ClusterwareおよびOracle Databaseファイルのための自動ストレージ管理の記憶域の構成について説明します。
●
ASM上の既存のOracle Databaseディスク・グループの指定と使用
●
Oracle Databaseデータ・ファイルのためのディスク・グループの作成
3.3.2.1 ASM上の既存のOracle Databaseディスク・グループの指定と使用
次の項では、既存ディスク・グループの指定方法およびそのディスク・グループが持つ空きディスク領域の確認方法について説明します。
●
必要な場合は、自動ストレージ管理ディスク・グループのデバイスに障害グループを指定します。
注意:
自動ストレージ管理コンフィギュレーション・アシスタント(ASMCA)を対話型モードで実行するインス
トール方法を使用する場合(アドバンスト・データベース構成オプションを選択する場合など)にのみ、
この手順を実行します。 標準インストールでは、障害グループを指定できません。
標準または高冗長ディスク・グループを使用する場合は、カスタム障害グループのディスク・デバイスを関連付けることによって、
ハードウェア障害に対するデータベースの保護を強化できます。 デフォルトでは、各デバイスに独自の障害グループが含まれます。
ただし、標準冗長ディスク・グループの2台のディスク・デバイスが同じSCSIコントローラに接続されている場合、コントローラに障
害が発生すると、ディスク・グループは使用できなくなります。 この例でのコントローラは、シングル・ポイント障害です。
このタイプの障害を防止するためには、2つのSCSIコントローラを使用します。各コントローラに2台のディスクを接続し、各コント
ローラに接続されたディスクに障害グループを定義します。 この構成では、ディスク・グループが1つのSCSIコントローラの障害を許
容できるようになります。
注意:
カスタム障害グループを定義する場合、標準冗長では2つ以上の障害グループ、高冗長では3つ以上の障害
グループを指定する必要があります。
3.3.2.2 Oracle Databaseデータ・ファイルのためのディスク・グループの作成
システムに適切なディスク・グループが存在しない場合は、適切なディスク・デバイスを設置または指定して、新しいディスク・グループを追
加します。 次のガイドラインに従って、適切なディスク・デバイスを指定します。
102
●
●
●
自動ストレージ管理ディスク・グループのすべてのデバイスは、サイズおよびパフォーマンス特性が同じである必要があります。
単一の物理ディスクにある複数のパーティションを、1つのディスク・グループのデバイスとして指定しないでください。 自動スト
レージ管理は、各ディスク・グループのデバイスが、別々の物理ディスク上に存在するとみなします。
論理ボリュームは、自動ストレージ管理ディスク・グループのデバイスとして指定できますが、これを使用することはお薦めしませ
ん。 論理ボリューム・マネージャは、物理ディスク・アーキテクチャを隠すことができ、これによって自動ストレージ管理による物
理デバイス間のI/Oの最適化が行われなくなります。 これらは、Oracle RACではサポートされていません。
3.3.3 Oracle自動ストレージ管理クラスタ・ファイル・システム(ACFS)の構成
Oracle ACFSは、Oracle Grid Infrastructure(Oracle Clusterwareおよび自動ストレージ管理)11gリリース2(11.2)のインストールの一部と
して、インストールされます。
注意:
Oracle ACFSは、Oracle Enterprise Linux 5.0およびRed Hat Enterprise Linux 5.0でのみサポートされていま
す。 クラスタ用Oracle Grid Infrastructure 11gリリース2(11.2)でサポートされている他のLinuxリリースは
いずれも、Oracle ACFSをサポートしていません。
Oracle RACデータベースのOracle Databaseホームに、自動ストレージ管理クラスタ・ファイル・システムを構成するには、次の手順を実行しま
す。
1.
クラスタ用Oracle Grid Infrastructure(Oracle Clusterwareおよび自動ストレージ管理)をインストールします。
2.
グリッド・インフラストラクチャ・ホームに移動します。 次に例を示します。
$ cd /u01/app/11.2.0/grid
3.
Gridインストールの所有者として、ASM Configuration Assistantを起動します。 次に例を示します。
./asmca
4.
「ASMの構成: ASMディスク・グループ」ページに、インストール中に作成したOracle ASMディスク・グループが表示されます。 「ASM
クラスタ・ファイルシステム」タブをクリックします。
5.
「ASMクラスタ・ファイルシステム」ページでデータ・ディスクを右クリックし、「データベース・ホームのACFSの作成」を選択しま
す。
6.
「ACFSホスト・データベース・ホームの作成」ウィンドウで次の情報を入力します。
❍
❍
データベース・ホームのADVMボリューム・デバイス名: データベース・ホームの名前を入力します。 この名前は、社内で
一意である必要があります。 たとえば、dbase_01とします。
データベース・ホームのマウント・ポイント: マウント・ポイントのディレクトリ・パスを入力します。 たとえば、/u02/
acfsmounts/dbase_01とします。
後で参照するために、このマウント・ポイントを書き留めます。
❍
❍
データベース・ホーム・サイズ(GB): データベース・ホームのサイズをGB単位で入力します。
データベース・ホームの所有者名: データベースのインストールに使用するOracle Databaseインストール所有者の名前を
入力します。 たとえば、oracle1とします。
103
❍
❍
7.
データベース・ホームの所有者グループ: データベースのインストール時に指定するメンバーが含まれるOSDBAグループを
入力します。 このグループのメンバーには、データベースに対するSYSDBA権限のオペレーティング・システム認証が付与
されます。 たとえば、dba1とします。
入力が完了したら、「OK」をクリックします。
Oracle RACのインストール中に、Oracle RACをインストールするユーザーまたはDBAが、「データベース・ホームのマウント・ポイン
ト」フィールドで指定したマウント・ポイントをOracleホームに選択するようにします(前の例では/u02/acfsmounts/dbase_01)。
参照:
Oracle ACFSを使用してストレージを構成および管理する方法の詳細は、『Oracle Databaseストレージ管理者ガ
イド』を参照してください。
3.3.4 既存のOracle ASMインスタンスの移行
以前のリリースのOracle ASMが、サーバー上または既存のOracle Clusterwareインストール環境内にインストールされている場合は、パス
Grid_home/binにある自動ストレージ管理コンフィギュレーション・アシスタント(ASMCA)を使用して、既存のOracle ASMインスタンスを11g
リリース2(11.2)にアップグレードし、その後で障害グループ、ASMボリュームおよび自動ストレージ管理クラスタ・ファイル・システム
(ACFS)を構成します。
注意:
既存のOracle ASMインスタンスのアップグレードは、そのノード上のすべてのデータベース・インスタンスおよ
びアプリケーションを停止してから実行する必要があります。
インストール時に、Oracle ASMを使用することを選択したときに、以前のOracle ASMバージョンが別のASMホームにインストールされていること
がASMCAで検出された場合は、Oracle ASM 11gリリース2(11.2)のバイナリをインストールした後に、ASMCAを起動して既存のOracle ASMインス
タンスをアップグレードできます。 次に、ASMボリュームを作成し、アップグレードしたOracle ASMを使用してACFSを作成することで、ACFSの
デプロイメントを構成できます。
Oracle ClusterwareまたはOracle RACの既存のインストール環境で、すべてのノード上のOracle ASMインスタンスの旧バージョンが11gリリース
1の場合は、Oracle ASMインスタンスのローリング・アップグレードを実行できます。 Oracle RACのインストール環境で、旧バージョンの
Oracle ASMインスタンスが11gリリース1よりも前のリリースの場合は、ローリング・アップグレードを実行できません。 Oracle ASMは、すべて
のノードで11gリリース2(11.2)にアップグレードされます。
3.3.5 スタンドアロンのOracle ASM環境からクラスタ化されたOracle ASM環境への変換
クラスタのメンバー・ノードとして選択したノードの中に、既存のスタンドアロンのOracle ASMがインストールされているノードが1つ以上ある
場合でも、クラスタ用のOracle Grid Infrastructureのインストールが開始されます。
Oracle Clusterwareファイル(OCRおよび投票ディスク)をOracle ASM上に配置すると、クラスタウェアのインストール終了時にASMCAが起動
し、ローカル・ノード上のOracle ASMインスタンスを移行およびアップグレードするためのプロンプトが表示され、Oracle ASM 11gリリース2
(11.2)環境が作成されます。
リモート・ノードでスタンドアロンのOracle ASMインスタンスが実行されていることをASMCAが認識すると、そのOracle ASMインスタンスと、そ
のOracle ASMインスタンスを使用しているデータベース・インスタンスを停止するように求められます。 次に、ASMCAは、クラスタ化された
Oracle ASMインスタンスをクラスタ内のすべてのノードに展開します。 ただし、クラスタ対応のOracle ASMインスタンスのディスク・グループ
名は、既存のスタンドアロンのディスク・グループ名と異なっている必要があります。
3.4 ブロック・デバイスおよびRAWデバイスのサポート終了
Oracle Database 11gリリース2(11.2)およびOracle RAC 11gリリース2(11.2)では、Database Configuration Assistantまたはインストーラ
を使用して、ブロック・デバイスまたはRAWデバイス上にOracle ClusterwareまたはOracle Databaseファイルを格納する処理がサポートされな
くなりました。
既存のOracle RACデータベースをアップグレードする場合、またはOracle ASMインスタンスを使用するOracle RACデータベースをアップグレー
ドする場合は、既存のRAWデバイスまたはブロック・デバイスのパーティションを使用して、既存のインストールをローリング・アップグレード
できます。 ブロック・デバイスまたはRAWデバイスを使用した、新しいインストールは実行できません。
104
4 クラスタ用Oracle Grid Infrastructureのインストール
この章では、クラスタ用Oracle Grid Infrastructureをインストールする手順について説明します。 Oracle Grid Infrastructureは、Oracle
Clusterwareおよび自動ストレージ管理で構成されます。 後でOracle DatabaseおよびOracle Real Application Clusters(Oracle RAC)をイン
ストールする場合、このフェーズは2つあるインストール・フェーズの1つとなります。
この章の内容は次のとおりです。
●
OUIを使用してOracle Grid Infrastructureをインストールするための準備
●
グリッド・インフラストラクチャのインストール
●
ソフトウェアのみのインストールを使用したグリッド・インフラストラクチャのインストール
●
Oracle Clusterwareの機能の確認
●
Oracle Clusterwareファイルを対象とするOracle ASM機能の確認
4.1 OUIを使用してOracle Grid Infrastructureをインストールするための準備
インストーラを使用してOracle Grid Infrastructureをインストールする前に、次のチェックリストを使用して、インストール中に必要なすべ
ての情報が揃っていること、およびインストールを開始する前に実行しておく必要があるすべての作業が完了していることを確認します。 次に
示す各作業を完了するたびにチェック・マークを付け、インストール中に使用できるように必要な情報を書き込みます。
●
実行中のOracleプロセスを停止する
実行中のOracleプロセスを停止する必要がある場合があります。
Oracle ASMを使用していないスタンドアロンのデータベースが存在するノードにインストールする場合: Oracle Grid Infrastructure
ソフトウェアのインストールの間、データベースを停止する必要はありません。
Oracle ASM上で実行しているスタンドアロンのOracle Database 11gリリース2(11.2)インストールがすでに存在するノードにインス
トールする場合: 既存のOracle ASMインスタンスを停止します。 ソフトウェアをインストールした後、Oracle ASMインスタンスを再
度起動します。
Oracle RAC Databaseノードにインストールする場合: このインストールでは、Oracle ClusterwareがOracle RACを実行する必要があ
るため、Oracle Clusterwareのアップグレードが必要です。 アップグレードの一環として、データベースを停止する必要があります
が、その際、一度に1ノードずつ停止します。これは、ローリング・アップグレードがノードからノードへと実行されるためです。
注意:
Oracle RAC 9iリリース2(9.2)のノードをアップグレードするときに、SCANがリスニングするポートと
同じポート(デフォルトは1521)でTNSLSNRがリスニングしている場合は、TNSLSNRを停止する必要があり
ます。
Oracle9iリリース2(9.2)以前のグローバル・サービス・デーモン(GSD)が実行されている場合は、まずそれを停止し、次のコマン
ドを実行してOracle Grid Infrastructureをインストールします。
$ Oracle_home/bin/gsdctl stop
Oracle_homeは、GSDが実行されているOracle Databaseのホームです。
105
注意:
Oracle9iリリース2(9.2)の既存のOracle Cluster Manager(Oracle CM)がインストールされている場
合、Oracle CMサービスは停止しないでください。 停止すると、Oracle Grid Infrastructure 11gリリー
ス2(11.2)のソフトウェアでOracle9iリリース2(9.2)のノード・リストを検出できなくなり、Oracle
Grid Infrastructureのインストールが失敗する原因になります。
注意:
OUIを起動した後にすべてのOracleサービスの停止を要求する警告が表示された場合は、次のコマンドを
入力します。
Oracle_home/bin/localconfig delete
Oracle_homeは既存のOracle Clusterwareホームです。
●
自動ストレージ管理およびOracle Clusterwareのインストール環境がすでにある場合は、そのアップグレードを準備する
インストール中に、Oracle ClusterwareおよびOracle ASMの既存のインストール環境をアップグレードできます。 Oracle Grid
Infrastructure 11gリリース2(11.2)をインストールするノードにスタンドアロンのOracle ASMがインストールされている場合は、
そのASMをアップグレードできます。
クラスタ内のすべてのメンバー・ノードでOracle Grid Infrastructure 11g リリース2(11.2)が実行されている場合は、新しいクラ
スタウェアがアクティブなバージョンになります。
Oracle RACをインストールする場合は、最初にすべてのクラスタ・ノードでOracle Grid Infrastructure 11gリリース2(11.2)への
アップグレードを完了してから、Oracle Database 11gリリース2(11.2)バージョンのOracle RACをインストールする必要がありま
す。
注意:
Oracle Grid Infrastructureのアップグレード(Oracle ClusterwareおよびOracle ASMの既存のインス
トール環境のアップグレード)は、すべてアウトオブプレース・アップグレードです。
●
Oracle Inventory(oraInventory)の位置を指定する
システムにすでにOracleソフトウェアがインストールされている場合は、OUIによって既存のOracle Inventory(oraInventory)ディ
レクトリが/etc/oraInst.locファイルから検出され、この位置が使用されます。 このディレクトリは、システムにインストールされて
いるOracleソフトウェアの中央インベントリです。 プライマリ・グループがOracle Inventoryグループであるユーザーは、中央イン
ベントリに書込みできるOINSTALL権限が付与されます。
Oracleソフトウェアをシステムに初めてインストールする際にoraInventoryディレクトリがシステムに存在しない場合、インストール
所有者のプライマリ・グループはOracle Inventoryグループになります。 使用するOracleソフトウェア・インストール所有者のすべ
てが、このグループをプライマリ・グループとして利用できることを確認します。
注意:
oraInventoryディレクトリは、共有ファイル・システム上に配置することはできません。
参照:
Oracle Inventoryの作成方法および必要なシステム構成の設定方法については、第2章のインストール前
の手順に関する章を参照してください。
●
rootアカウントへのアクセス権を取得する
インストール中に、rootユーザーとして構成スクリプトを実行する必要があります。 これらのスクリプトは、rootユーザーとして実
行するか、またはシステム管理者に実行を依頼する必要があります。 これらのスクリプトは、順番に実行する必要があります。 スク
リプトを同時に実行しようとすると、インストールが失敗します。
106
●
他の言語をインストールするかどうかを決定する
インストール中に、ユーザー・インタフェースのテキストをデフォルト(英語)以外の言語に翻訳するかどうかを選択します。
注意:
オペレーティング・システムの言語セットがインストーラでサポートされていない場合、インストーラ
は、デフォルトでは英語で実行されます。
参照:
キャラクタ・セットおよび言語設定の詳細は、『Oracle Databaseグローバリゼーション・サポート・ガ
イド』を参照してください。
●
クラスタ名、パブリック・ノード名、SCAN、仮想ノード名、GNS VIP、およびクラスタ内の各ノードのインタフェース使用計画を指定
する
インストール中、他社のクラスタ・ソフトウェアを使用していないかぎり、パブリック・ホスト名および仮想ホスト名を提供するよう
に求められます。 その場合は、パブリック・ホスト名の情報を入力します。また、どのインタフェースがパブリックまたはプライ
ベートなのか、あるいは別の目的(ネットワーク・ファイル・システムなど)で使用されるインタフェースなのか、指定するように求
められます。
グリッド・ネーミング・サービス(GNS)を使用している場合、パブリック・ホスト名および仮想ホスト名のアドレスは自動的に構成
されるため、OUIはこれらのアドレスにAUTOと表示します。
注意:
IPアドレスを手動で構成した場合は、Oracle Grid Infrastructureをインストールした後で、ドメイン修
飾子の追加や削除も含め、ホスト名を変更しないでください。 新しいホスト名を持つノードは、新しい
ホストと見なされるので、クラスタに追加する必要があります。 古い名前のノードは、クラスタから削
除されるまで、停止状態で表示されます。
パブリック・ノード名の入力には、各ノードのプライマリ・ホスト名を使用します。 この名前は、hostnameコマンドによって表示
される名前です。
さらに、次の処理を実行します。
❍
次の特性を持ったクラスタ名を指定します。
■
ホスト・ドメイン内でグローバルに一意である。
■
1文字以上、15文字未満である。
■
❍
❍
RFC 1123に準拠して、ホスト名に使用されるキャラクタ・セット(ハイフン(-)およびシングルバイト英数字
(aからz、AからZ、および0から9)を含む)と同じキャラクタ・セットで構成されている。 他社ベンダーのク
ラスタウェアを使用する場合は、そのベンダーのクラスタ名を使用することをお薦めします。
グリッド・ネーミング・サービス(GNS)を使用していない場合は、各ノードに仮想ホスト名を指定します。 仮想ホスト名
は、パブリック・ノード名で、ノードが停止している場合にノードに送信されるクライアントの要求を再ルーティングする
ために使用されます。 Oracle Databaseでは、クライアントとデータベース間の接続にVIPを使用するため、VIPアドレスは
パブリックにアクセス可能である必要があります。 名前はhostname-vip形式で指定することをお薦めします。 たとえば、
myclstr2-vipです。
クラスタへのクライアント・アクセス用のSCANアドレスを指定します。 このアドレスは、ドメイン・ネーム・サービス
(DNS)にラウンド・ロビン・アドレスとして構成してください。 SCANアドレスは、3つ指定することをお薦めします。
107
注意:
次に、ノードIPアドレスに関する追加情報を示します。
■
ローカル・ノードの場合のみ、OUIによってパブリックおよびVIPフィールドが自動的
に書き込まれます。 システムでベンダーのクラスタウェアが使用されている場合
は、追加のフィールドが書き込まれることがあります。
■
■
❍
ホスト名および仮想ホスト名は、ドメイン修飾されません。 インストール中にアド
レス・フィールドにドメインを入力すると、そのドメインは、OUIによってアドレス
から削除されます。
プライベートIPアドレス用にプライベートとして指定したインタフェースは、パブ
リック・インタフェースとしてアクセスできないようにする必要があります。
キャッシュ・フュージョンにパブリック・インタフェースを使用すると、パフォーマ
ンスの問題が発生する可能性があります。
パブリック・インタフェースおよびプライベート・インタフェースを指定します。 OUIは、パブリックIPアドレスおよび仮
想IPアドレスによって使用されるようにパブリック・インタフェースを構成し、プライベートIPアドレスをプライベート・
インタフェース上に構成します。
プライベート・インタフェースが使用するプライベート・サブネットは、クラスタ・メンバーにする予定のすべてのノード
に接続する必要があります。
●
Oracle Clusterwareファイル用の共有記憶域を指定し、記憶域を準備する(必要な場合)
インストール中に、次のOracle Clusterwareファイルのパスを指定するように求められます。 これらのファイルは、クラスタのすべ
てのノードで共有し、自動ストレージ管理またはサポートされているファイル・システム上のいずれかに存在する必要があります。
❍
投票ディスクは、Oracle Clusterwareでクラスタ・ノードのメンバーシップおよび状態の検証に使用されるファイルです。
投票ディスク・ファイルは、インストールを実行しているユーザー(oracleまたはgrid)が所有し、権限が640に設定されて
いる必要があります。
❍
Oracle Cluster Registryファイル(OCR)には、Oracle Clusterwareのクラスタおよびデータベースの構成情報が含まれま
す。
インストールを始める前に、OCRファイルは、インストールを実行するユーザー(gridまたはoracle)が所有している必要が
あります。 そのインストール・ユーザーのプライマリ・グループはoinstallである必要があります。 インストール中、OUI
によってOCRファイルの所有権がrootに変更されます。
ファイル・システムに外部記憶域の冗長性が適用されていない場合は、OCRディスク用に2つ、投票ディスク用に2つの場所を追加し、
合計6つのパーティション(OCR用に3つ、投票ディスク用に3つ)を確保することをお薦めします。 冗長性のある記憶域の場所を作成
すると、障害の発生時にOCRおよび投票ディスクが保護されます。 クラスタを完全に保護するには、OCRおよび投票ディスクのコピー
を格納する記憶域の場所について、そのパス、コントローラおよびディスクを完全に別にして、複数の記憶域の場所に影響するシング
ル・ポイント障害がないようにする必要があります。
OCRをOracle ASM上に格納するように選択した場合、デフォルト構成では、OCRは1つのASMディスク・グループとして作成されます。
標準冗長または高冗長でディスク・グループを作成した場合は、OCRは物理ディスク障害から保護されます。
OCRを論理ディスク障害から保護するには、インストール後に別のASMディスク・グループを作成し、ocrconfigコマンドを使用してOCR
をこの2つ目のディスク・グループに追加します。
参照:
ディスク・グループへのディスクの追加については、第2章「クラスタ用Oracle Grid Infrastructureの
拡張インストールのインストール前作業」および『Oracle Databaseストレージ管理者ガイド』を参照し
てください。
●
インストール中にcronジョブが実行されないことを確認する
108
日常のcronジョブが開始するときにインストーラが実行中の場合、インストールの完了前にcronジョブによるクリーンアップが実行さ
れて一時ファイルが削除されると、予期しないインストールの問題が発生することがあります。 日常のcronジョブを実行する前にイ
ンストールを完了するか、インストールが完了するまで、クリーンアップを行う日常のcronジョブを無効にすることをお薦めします。
●
IPMI構成を完了し、IPMI管理者アカウント情報を用意する
IPMIを使用する場合は、BMCインタフェースが構成されていることを確認し、インストール時の指示に従って管理アカウントのユー
ザー名およびパスワードを指定できるように用意します。
非標準のインストールで、インストール後に1つ以上のノード構成の変更が必要な場合は(たとえば、クラスタ・ノード上のBMCインタ
フェースの管理者のユーザー名およびパスワードを別のものにする場合は)、第5章の説明に従ってインストール後にBMCインタフェー
スを構成し直すかどうかや、IPMI管理者アカウント情報を変更するかどうかを決定します。
●
グリッド・インフラストラクチャ・ホームに選択するOracleホームのパスに、ASCII文字のみが使用されていることを確認する
この制限には、ホームのパスによってはデフォルト名に使用されるインストール所有者ユーザー名に加えて、パスに選択する可能性が
あるその他のディレクトリ名も含まれます。
●
Oracle環境変数の設定を削除する. 環境変数にORA_CRS_HOMEを設定した場合は、インストールまたはアップグレードを開始する前に、
その設定を削除します。 ORA_CRS_HOMEを環境変数に使用しないでください。
システムに既存のインストール環境があり、同じユーザー・アカウントを使用して今回のインストールを行う場合、次の環境変数
ORA_CRS_HOME、ORACLE_HOME、ORA_NLS10、TNS_ADMINの設定を削除します
4.2 グリッド・インフラストラクチャのインストール
この項では、インストーラを使用してOracle Grid Infrastructureをインストールする方法について説明します。 この項の内容は次のとおりで
す。
●
OUIの実行によるグリッド・インフラストラクチャのインストール
●
クラスタ構成ファイルを使用したグリッド・インフラストラクチャのインストール
4.2.1 OUIの実行によるグリッド・インフラストラクチャのインストール
クラスタにグリッド・インフラストラクチャ(Oracle Clusterwareおよび自動ストレージ管理)をインストールするには、次の手順を実行しま
す。 インストール中に、求められている操作に対して疑問がある場合は、OUIページの「ヘルプ」ボタンをクリックします。
1.
インストール・メディア上の/Disk1ディレクトリか、インストールのバイナリをダウンロードした場所に移動し、runInstallerコマン
ドを実行します。 次に例を示します。
$ cd /home/grid/oracle_sw/Disk1
$ ./runInstaller
2.
「標準」または「詳細」インストールを選択します。
3.
OUIのプロンプトが表示されたら、情報を入力するか、またはrootとしてスクリプトを実行します。 インストール手順の詳細は、「ヘ
ルプ」をクリックしてください。 「詳細」をクリックしてログファイルを確認します。
注意:
最初のノードでroot.shスクリプトを実行し、完了するまで待機する必要があります。 クラスタに4つ以
上のノードが存在する場合、最初と最後のノードを除いて、すべてのノードでroot.shを同時に実行する
ことができます。 最後のノードでは、最初のノードと同様に、root.shスクリプトを個別に実行する必要
があります。
109
4.
すべてのノードでroot.shを実行すると、OUIによってNet Configuration Assistant(netca)およびクラスタ検証ユーティリティが起
動されます。 これらのプログラムはユーザーの介入なしに起動されます。
5.
自動ストレージ管理コンフィギュレーション・アシスタント(asmca)によって、インストール中にOracle ASMが構成されます。
Oracle Grid Infrastructureのインストールが正常に完了したことが検証されると、他のアプリケーションの高可用性を維持するために使用す
るか、またはOracle Databaseをインストールできます。
Oracle Database 11g リリース2(11.2)およびOracle RACをインストールする場合は、Oracle Real Application Clustersのインストレーショ
ン・ガイドを参照してください。
参照:
クローニングの使用およびノードの追加手順については、『Oracle Real Application Clusters管理およびデプ
ロイメント・ガイド』、Oracle Grid Infrastructureのクローニングについては、『Oracle Clusterware管理お
よびデプロイメント・ガイド』を参照してください。
4.2.2 クラスタ構成ファイルを使用したグリッド・インフラストラクチャのインストール
グリッド・インフラストラクチャのインストール時には、クラスタ構成情報を手動で指定するか、クラスタ構成ファイルを使用するかを選択で
きます。 クラスタ構成ファイルはテキスト・ファイルで、OUIを起動する前に作成できます。このファイルによって、クラスタの構成に必要な
クラスタ名およびノード名の情報がOUIに提供されます。
テスト・クラスタへのインストールを繰り返し実行する場合、または多数のノードでインストールを実行する場合は、クラスタ構成ファイルの
使用をお薦めします。
クラスタ構成ファイルを手動で作成するには、次の手順を実行します。
1.
インストール・メディアの/responseディレクトリに移動します。
2.
テキスト・エディタを使用して、レスポンス・ファイルcrs_install.rspを開きます。
3.
そのセクションの手順に従って、クラスタ構成ファイルを作成します。
次に、インストールに関する追加情報を示します。
●
Linuxシステムにインストールする場合は、ASMライブラリ・ドライバ(ASMLIB)を使用することになります。インストール時に、自動
ストレージ管理(ASM)を選択してください。これを選択すると、ASMのデフォルト検出によって、ASMLIBがASMディスクとしてマーキ
ングしたすべてのディスクが検出されます。
4.3 ソフトウェアのみのインストールを使用したグリッド・インフラストラクチャのインストール
注意:
ソフトウェアのみのインストールは、上級ユーザーのみが実行することをお薦めします。このインストール方法
では、インストールの検証が行われません。また、インストール後に手動による手順を実行して、グリッド・イ
ンフラストラクチャ・ソフトウェアを有効にする必要があります。
ソフトウェアのみのインストールでは、あるノード上のクラスタ用にOracle Grid Infrastructureをインストールして構成した後、クラスタ・
メンバー・ノードとする各ノードでインストーラを実行します。その後、そのクラスタにその他のノードを結合します。
ソフトウェアのみのインストールを行うには、次の手順を実行します。
4.3.1 ソフトウェア・バイナリのインストール
110
1.
Oracle Database 11gリリース2(11.2)のインストール・メディアの該当ディレクトリからrunInstallerコマンドを実行します。 次に
例を示します。
$ cd /home/grid/oracle_sw/Disk1
$ ./runInstaller
2.
最初のノードで、Oracle Grid Infrastructureのソフトウェアのみのインストールを完了します。
3.
ソフトウェアがインストールされたら、プロンプトに従ってorainstRoot.shスクリプトを実行します。
4.
root.shスクリプトの出力は、このインストールで完了しようとする構成内容に基づいて、どのように処理を進めるかについての情報
を提供します。 root.shスクリプトの出力に従って、必要に応じてコマンドGrid_home/crs/install/roothas.plまたはGrid_home/crs/
install/rootcrs.plを実行します。 次に例を示します。
$ cd /u01/app/grid/11/2.0/crs/install
$ perl rootcrs.pl
スタンドアロン・サーバー用Oracle Grid Infrastructureを構成するには、Grid_home/crs/install/roothas.plを使用します。 クラスタ
用Oracle Grid Infrastructureを構成するには、Grid_home/crs/install/rootcrs.plを使用します。
注意:
Oracle Grid Infrastructureは、スタンドアロン・サーバーとクラスタの両方に使用することができま
す。 ただし、最初にスタンドアロン・サーバー用Oracle Grid Infrastructureを構成し、その後クラス
タ用Oracle Grid Infrastructureを構成する場合は、rootcrs.plを実行してクラスタ用Oracle Grid
Infrastructureを構成する前に、Oracleソフトウェアを再リンクする必要があります。 「Grid
Infrastructureソフトウェアのインストールのみ」インストール・オプションは、クラスタ構成を想定し
ていません。そのため、Oracle RACオプションの自動リンクは行われません。
5.
Oracle RACオプションが有効な状態でOracle Clusterwareを再リンクするには、次のようなコマンド(この例では、Gridのホームは/
u01/app/grid/11.2.0)を実行します。
$ cd /u01/app/grid/11.2.0
$ set env ORACLE_HOME pwd
$ cd rdbms/lib
$ make -f ins_rdmbs.mk rac_on ioracle
6.
残りの各ノードで、runcluvfy.sh stage -pre crsinstコマンドを使用して、クラスタ・ノードがインストール要件を満たしていることを
検証します。 すべての記憶域およびサーバーのインストール前要件が満たされていることを確認してください。
7.
手順1から4の説明に従って、Oracle Universal Installerを使用して、クラスタに含める残りのすべてのノードでOracle Grid
Infrastructureソフトウェアをインストールします。そして、すべてのノードでOracle Grid Infrastructureのソフトウェアのみのイ
ンストールを完了します。
8.
必要に応じて、手順5に従って、Oracle Grid InfrastructureソフトウェアをインストールしたすべてのノードでOracle RACバイナリ
を再リンクします。
4.3.2 ソフトウェア・バイナリの構成
ソフトウェアをどのノードにインストールまたはコピーする場合でも、構成を後で行うことができます。 この項では、ノードにソフトウェアを
インストールまたはコピーした後で構成を行う手順について、説明します。
クラスタ用グリッド・インフラストラクチャのソフトウェアのみのインストールを構成しアクティブにするには、次の作業を行います。
1.
テキスト・エディタを使用して、テンプレート・ファイル/Grid_home/install/crs/crsconfig_paramsを変更して、クラスタの構成に使
用するインストーラ用のパラメータ・ファイルを作成します。 次に例を示します。
ORACLE_OWNER=grid
ORA_DBA_GROUP=oinstall
111
ORA_ASM_GROUP=asm
LANGUAGE_ID='AMERICAN_AMERICA.WE8ISO8859P1'
ORACLE_HOME=/u01/crs
ORACLE_BASE=/u01/crsbase
OCR_LOCATIONS=/u02/stor1/ocr,/u03/stor2/ocr
CLUSTER_NAME=example_cluster
HOST_NAME_LIST=node1,node2
NODE_NAME_LIST=node1,node2
VOTING_DISKS=/u02/stor1/vdsk,/u03/stor2/vdsk,/u04/stor3/vdsk
CRS_STORAGE_OPTION=2
CRS_NODEVIPS='node1-vip/255.255.252.0/eth0,node2-vip/255.255.252.0/eth0'
NODELIST=node1,node2
NETWORKS="eth0"/192.0.2.64:public,"eth1"/192.0.2.65:cluster_interconnect
SCAN_NAME=example-scan.domain
SCAN_PORT=1522
2.
すべてのノードで、ファイルcrsconfig_paramsをパスGrid_home/crs/install/crsconfig_paramsに配置します。この場合、Grid_home
は、クラスタ用Oracle Grid Infrastructureホームのパスです。 次に例を示します。
$ cp crsconfig_params /u01/app/11.2.0/grid/crs/install/crsconfig_params
3.
crsconfig_paramsファイルの構成後、rootとしてログインし、次の構文を使用してスクリプトGrid_home/crs/install/rootcrs.plを実行し
ます。
Grid_home/perl/lib/perl -IGRID_HOME/perl/lib -IGrid_home/crs/install Grid_home/crs/install/rootcrs.pl
次に例を示します。
# /u01/app/grid/11.2.0/perl/lib/perl -I/u01/app/grid/11.2.0/perl/lib ¥
-I/u01/app/grid/11.2.0/crs/install /u01/app/grid/11.2.0/crs/install/rootcrs.pl
4.
ディレクトリをGrid_home/oui/binに変更します。この場合、Grid_homeは、各クラスタ・メンバー・ノード上のグリッド・インフラ
ストラクチャ・ホームのパスです。
5.
次のコマンド構文を入力します。この場合、Grid_homeは各クラスタ・メンバー・ノード上のグリッド・インフラストラクチャ・
ホームのパスであり、node_listはこのソフトウェアを有効にするノードのカンマ区切りリストです。
runInstaller -updateNodeList ORACLE_HOME=Grid_home -defaultHomeName
次に例を示します。
$ ./runInstaller -updateNodeList ORACLE_HOME=/u01/app/11.2.0/grid -defaultHomeName
"CLUSTER_NODES={node_list}" CRS=TRUE
Oracle Clusterwareインストールをローカル・ノードのみで有効にするには、次のコマンドを入力します。この場合、Grid_homeは
ローカル・ノード上のグリッド・ホームで、node_listはこのソフトウェアを有効にするノードのカンマ区切りリストです。
runInstaller -updateNodeList ORACLE_HOME=Grid_home -defaultHomeName "CLUSTER_NODES={node_list}" CRS=TRUE
次に例を示します。
$ ./runInstaller -updateNodeList ORACLE_HOME=/u01/app/11.2.0/grid -defaultHomeName
"CLUSTER_NODES={node_list}" CRS=TRUE
4.4 Oracle Clusterwareの機能の確認
インストール後にrootとしてログインし、各ノードで次のコマンド構文を使用して、Oracle Clusterwareインストールが適切にインストールさ
れ、動作していることを確認します。
112
crsctl check crs
次に例を示します。
$ crsctl check crs
CRS-4638: Oracle High Availability Services is online
CRS-4537: Cluster Ready Services is online
CRS-4529: Cluster Synchronization Services is online
CRS-4533: Event Manager is online
注意:
インストールが完了したら、Oracle Clusterwareの動作中は/tmp/.oracleまたは/var/tmp/.oracle、あるいはその
ファイルを手動で削除したり、それらを削除するcronジョブを実行しないでください。 これらのファイルを削除
すると、Oracle Clusterwareが断続的にハングアップする可能性があり、エラーCRS-0184「サーバーとの通信中
にエラーが発生しました」が発生します。
4.5 Oracle Clusterwareファイルを対象とするOracle ASM機能の確認
OCRおよび投票ディスク・ファイルをOracle ASMにインストールした場合、グリッド・インフラストラクチャ・インストール所有者として次のコ
マンド構文を使用し、Oracle ASMインストールが実行されていることを確認します。
srvctl status asm
次に例を示します。
$ srvctl status asm
ASM instance +ASM1 is running on node node1.
ASM instance +ASM2 is running on node node2.
Oracle ASMは、Oracle Clusterwareファイルに必要な場合のみ、実行されています。 OCRおよび投票ディスク・ファイルをOracle ASMにインス
トールしなかった場合、Oracle ASMインスタンスは停止しています。
注意:
Oracle ASMまたはOracle Net 11gリリース2(11.2)以上のインストールを管理するには、クラスタ用Oracle
Grid Infrastructureホーム(グリッド・ホーム)のsrvctlバイナリを使用します。 Oracle Real Application
ClustersまたはOracle Databaseがインストールされている場合は、データベース・ホームのsrvctlバイナリを使用
してOracle ASMまたはOracle Netを管理することはできません。
113
5 Oracle Grid Infrastructureのインストール後の手順
この章では、Oracle Grid Infrastructureソフトウェアをインストールした後に実行する、インストール後の作業について説明します。
この章の内容は次のとおりです。
●
インストール後に必要な作業
●
インストール後の推奨作業
●
旧バージョンのOracle Databaseのグリッド・インフラストラクチャでの使用
●
インストール後のOracle Clusterwareバイナリの変更
5.1 インストール後に必要な作業
インストールを完了したら、次の作業を実行する必要があります。
●
パッチの更新のダウンロードおよびインストール
注意:
以前のリリースでは、ddコマンドを使用して投票ディスクをバックアップする作業が、インストール後に必要で
した。 Oracle Clusterwareリリース11.2以上では、ddコマンドを使用した投票ディスクのバックアップとリスト
アは投票ディスクの障害につながる可能性があるため、この手順はサポートされていません。
5.1.1 パッチの更新のダウンロードおよびインストール
My Oracle Support Webサイトを参照して、インストールした環境に必要なパッチの更新を確認します。
注意:
My Oracle Supportを利用するには、ブラウザにAdobe Flashプラグインのバージョン9.0.115以上が必要です。
Adobe Flashのチェッカ・ページに移動して、ご使用のブラウザでFlashプラグインの正確なバージョンをチェッ
クし、最新バージョンのAdobe Flashがインストールされていることを確認します。
Flashをインストールしていない場合は、次のAdobe Webサイトから最新バージョンのFlash Playerをダウンロー
ドします。
http://www.adobe.com/go/getflashplayer
必要なパッチの更新をダウンロードするには、次の手順を実行します。
1.
Webブラウザを使用して、次のMy Oracle Support Webサイトを表示します。
https://metalink.oracle.com
2.
My Oracle Support Webサイトにログインします。
114
注意:
My Oracle Supportの登録ユーザーでない場合は、「Register for My Oracle Support」をクリックして
登録してください。
3.
My Oracle Supportのメイン・ページで「Patches&Updates」をクリックします。
4.
「Patches & Update」ページで「Advanced Search」をクリックします。
5.
「Advanced Search」ページで「Product or Product Family」フィールドの横にある検索アイコンをクリックします。
6.
「Search and Select: Product Family」フィールドで「Search」リスト・フィールドの「Database and Tools」を選択し、テキス
ト・フィールドに「RDBMS Server」と入力して「Go」をクリックします。
RDBMSサーバーが「Product or Product Family」フィールドに表示されます。 現行のリリースが「Release」フィールドに表示されま
す。
7.
「Platform」フィールドのリストからプラットフォームを選択して、選択リストの下の「Go」をクリックします。
8.
「Results」ヘッダーの下に使用可能なパッチの更新が表示されます。
9.
パッチ番号をクリックして、パッチをダウンロードします。
10.
「Patch Set」ページで「View README」 をクリックして、表示されるページを読みます。 READMEページには、そのパッチ・セットに
関する情報と、パッチの適用方法が記載されています。
11.
「Patch Set」ページに戻って「Download」をクリックし、ファイルをシステムに保存します。
12.
Oracle Database 11g リリース2(11.2)に付属のunzipユーティリティを使用して、My Oracle SupportからダウンロードしたOracle
パッチの更新を解凍します。 unzipユーティリティは$ORACLE_HOME/binディレクトリにあります。
13.
パッチをインストールする準備としてデータベース・プロセスを停止する方法については、付録Fを参照してください。
5.2 インストール後の推奨作業
Oracle Grid Infrastructureをインストールした後で、必要に応じて次の作業を行うことをお薦めします。
●
root.shスクリプトのバックアップ
●
クラスタ状態管理のインストール
●
セマフォ・パラメータの調整
●
高速リカバリ領域ディスク・グループの作成
5.2.1 root.shスクリプトのバックアップ
インストールの完了後に、root.shスクリプトをバックアップすることをお薦めします。 同じOracleホーム・ディレクトリに他の製品をインス
トールすると、インストーラは、インストール中に既存のroot.shスクリプトの内容を更新します。 元のroot.shスクリプトの情報が必要になっ
た場合は、root.shファイルのコピーから元に戻すことができます。
5.2.2 クラスタ状態管理のインストール
問題のトラブルシューティングを実行するには、Linuxカーネルのバージョンに応じて、Instantaneous Problem Detection OS Tool(IPD/
115
OS)、またはOS WatcherとRACDDTをインストールすることをお薦めします。
5.2.2.1 Instantaneous Problem Detection OS Tool(IPD/OS)のインストール
Linuxカーネル2.6.9以上を使用しているLinuxシステムの場合は、Oracle Instantaneous Problem Detection Operating System Tool(IPD/OS)
をインストールします。
IPD/OSツールは、オペレーティング・システムおよびクラスタ・リソースに関連する状態の悪化や障害を検出し、分析するように設計されてい
ます。 このツールを利用すると、Oracle Clusterware、Oracle ASMおよびOracle RACが稼働しているクラスタで起こる様々な問題(ノードの追
出しなど)について、明確に理解できます。 このツールは、オペレーティング・システム・リソースの消費状況を、各ノード、プロセスおよび
デバイス・レベルで継続的に追跡します。 また、クラスタ全体のデータを収集し分析します。 リアルタイム・モードでは、しきい値に達する
とオペレータに対してアラートが表示されます。 根本原因分析のため、履歴データを再生し、障害発生時に何が起きていたのかを理解できま
す。
このツールは次のURLでダウンロードできます。
http://www.oracle.com/technology/products/database/clustering/ipd_download_homepage.html
5.2.2.2 OS WatcherおよびRACDDTのインストール
2.6.9より前のバージョンのLinuxカーネルを使用しているLinuxシステムの場合は、OS Watcherをインストールして、クラスタのオペレーティン
グ・システムに関する問題解決に役立てます。 Oracle RACデータベースをインストールする場合は、RACDDTもインストールしてください。 OS
WatcherおよびRACDDTをダウンロードするには、My Oracle Supportへのアクセス権が必要です。
OS Watcher(OSW)は、オペレーティング・システムおよびネットワークのメトリックを収集およびアーカイブして、Oracleサポート・サービス
でのシステムおよびパフォーマンスに関連する様々な問題の診断を支援するUNIX/Linuxシェル・スクリプトのコレクションです。 OSWは、サー
バー上で一連のバックグラウンド・プロセスとして動作し、定期的にオペレーティング・システムのデータを収集します。 このスクリプトで
は、vmstat、netstat、iostatなどの一般的なユーティティが使用されます。
RACDDTは、特にOracle RACテクノロジに関連する診断データを収集するために設計および構成されたデータ収集ツールです。 RACDDTは、
Oracle RACクラスタの1つ以上のノードで実行されるスクリプトと構成ファイルのセットです。 メイン・スクリプトはPerlで記述されています
が、多くのプロキシ・スクリプトがKornシェルを使用して記述されています。 RACDDTは、サポートされているすべてのUNIXおよびLinuxプラッ
トフォームで実行されますが、Windowsプラットフォームではサポートされていません。
また、OSWは、RACDDTスクリプト・ファイルにも含まれていますが、RACDDTではインストールされません。 OSWは、データを収集する必要がある
各ノードにインストールする必要があります。
OS WatcherおよびRACDDT用のバイナリをダウンロードするには、次のURLに移動します。
https://metalink.oracle.com
OSWをダウンロードするには、OS Watcherを検索して「User Guide」掲示板からバイナリをダウンロードします。 OSWのインストール手順につい
ては、ユーザー・ガイドを参照してください。 RACDDTをダウンロードするには、RACDDTを検索してRACDDTの「User Guide」掲示板からバイナリ
をダウンロードします。
5.2.3 セマフォ・パラメータの調整
デフォルトのセマフォ・パラメータ値が低すぎて、すべてのOracleプロセスに対応できない場合のみ、次のガイドラインを参照してください。
注意:
セマフォ・パラメータの設定方法の詳細は、オペレーティング・システムのドキュメントを参照することをお薦
めします。
1.
次の計算式を使用して、全体的な最小セマフォ要件を計算します。
2 * sum(システム上のすべてのデータベース・インスタンスのプロセス・パラメータ) + バックグラウンド・プロセスのオーバー
116
ヘッド + システムおよび他のアプリケーションの要件
2.
semmns(システム全体のセマフォ合計)を、この合計値に設定します。
3.
semmsl(各セットのセマフォ)を、256に設定します。
4.
semmnsをsemmslで割り、最も近い1024の倍数に切り上げた値を、semmni(セマフォ・セット合計)として設定します。
5.2.4 高速リカバリ領域ディスク・グループの作成
インストール時、デフォルトでは1つのディスク・グループの作成が可能です。 スタンドアロン・サーバー用のOracle Database、または
Oracle RACデータベースを追加しようとする場合は、データベース・ファイルの高速リカバリ領域を作成する必要があります。
5.2.4.1 高速リカバリ領域および高速リカバリ領域ディスク・グループについて
高速リカバリ領域は、リカバリに関連するすべてのOracle Databaseファイルのための、統合された記憶域の場所です。 データベース管理者
は、DB_RECOVERY_FILE_DESTパラメータを高速リカバリ領域のパスに定義することで、ディスク上へのバックアップやデータの迅速なリカバリが
可能になります。 最近のデータを迅速にバックアップできれば、リカバリ作業のためにバックアップ・テープを探さなければならないシステム
管理者の負担を軽減できます。
init.oraファイルでフラッシュ・リカバリを有効にすると、すべてのRMANバックアップ、アーカイブ・ログ、制御ファイルの自動バックアップ、
およびデータベースのコピーが高速リカバリ領域に書き込まれます。 RMANは、リカバリに必要でなくなった古いバックアップおよびアーカイ
ブ・ファイルを削除することで、高速リカバリ領域のファイルを自動的に管理します。
高速リカバリ領域ディスク・グループを作成することをお薦めします。 Oracle ClusterwareファイルとOracle Databaseファイルは同じディス
ク・グループに配置できます。また、フラッシュ・リカバリ・ファイルも同じディスク・グループに入れることができます。 ただし、ストレー
ジ・デバイスの競合を緩和するため、フラッシュ・リカバリ・ディスク・グループを別に作成することをお薦めします。
高速リカバリ領域は、DB_RECOVERY_FILE_DESTを設定することで有効にできます。 高速リカバリ領域のサイズは、DB_RECOVERY_FILE_DEST_SIZE
で設定します。 一般的に、高速リカバリ領域は大きいほど使いやすくなります。 使い勝手を良くするため、少なくとも3日分のリカバリ情報を
格納できるストレージ・デバイスに、高速リカバリ領域ディスク・グループを作成することをお薦めします。 理想的には、高速リカバリ領域
は、保存ポリシーに基づいて保存されたデータ・ファイルのバックアップを使用してデータベースをリカバリする際に必要な、すべてのデー
タ・ファイルと制御ファイル、オンラインREDOログ、およびアーカイブREDOログ・ファイルのコピーを格納できるサイズであることが求められ
ます。
複数のデータベースに同じ高速リカバリ領域を使用できます。 たとえば、150GBの記憶域を持つディスク上に1つの高速リカバリ領域ディスク・
グループを作成し、それを3つの異なるデータベースで共有するとします。 各データベースの高速リカバリ領域のサイズを、そのデータベース
の重要度によって設定することができます。 たとえば、データベース1が最も重要度が低く、データベース2がそれよりも重要度が高く、データ
ベース3が最も重要度が高い場合、各データベースに異なるDB_RECOVERY_FILE_DEST_SIZE設定を適用し、それぞれの保存目標を満たすようにしま
す。たとえば、データベース1には30GB、データベース2には50GB、データベース3には70GBのように設定します。
参照:
『Oracle Databaseストレージ管理者ガイド』
5.2.4.2 高速リカバリ領域ディスク・グループの作成
フラッシュ・リカバリ・ファイル・ディスク・グループを作成するには、次の手順を実行します。
1.
グリッド・ホームのbinディレクトリに移動し、ASM Configuration Assistant(asmca)を起動します。 次に例を示します。
$ cd /u01/app/11.2.0/grid/bin
$ ./asmca
2.
ASMCAが開き、「ディスク・グループ」タブが表示されます。 新しいディスク・グループを作成するには、「作成」をクリックしま
す。
117
3.
「ディスク・グループの作成」ウィンドウが開きます。
「ディスク・グループ名」フィールドに、高速リカバリ領域グループの説明的な名前を入力します。 たとえば、FRAです。
「冗長性」セクションで、適用する冗長レベルを選択します。
「メンバー・ディスクの選択」フィールドで、高速リカバリ領域に追加する適切なディスクを選択し、「OK」をクリックします。
4.
「ディスク・グループの作成」ウィンドウが開き、ディスク・グループの作成が完了したというメッセージが表示されます。 「OK」
をクリックします。
5.
「終了」をクリックします。
5.3 旧バージョンのOracle DatabaseのGrid Infrastructureでの使用
次の項で、11gリリース2(11.2)のGrid InfrastructureインストールでOracle Databaseの旧リリースを使用する場合について説明します。
●
旧バージョンのOracle Databaseの使用に関する一般的な制限
●
Oracle Databaseリリース10.xまたは11.x用のクラスタ・ノードの固定
●
Oracle Databaseリリース9.2のためのグローバル・サービス・デーモン(GSD)の有効化
●
適切なLSNRCTLコマンドの使用
5.3.1 旧バージョンのOracle Databaseの使用に関する一般的な制限
Oracle Databaseリリース9.2、リリース10.xおよびリリース11.1を、Oracle Clusterwareリリース11.2とともに使用できます。
Oracle Clusterwareの既存のバージョンをアップグレードする場合、既存のデータベースの必要な構成は自動的に行われます。 ただし、クラス
タ用Oracle Grid Infrastructureの新規インストールを完了し、11.2より前のバージョンのOracle Databaseをインストールする場合は、追加の
構成作業を手動で行う必要があります。
注意:
Oracle RACまたはOracle DatabaseをOracle Clusterwareリリース11.2にインストールする場合、その環境がリ
リース11.1.0.7、11.1.0.6および10.2.0.4からアップグレードしたものであるときは、事前にそのリリースの個
別パッチをインストールする必要があります。 第5.1.1項「パッチの更新のダウンロードおよびインストール」
を参照してください。
5.3.2 Oracle Databaseリリース10.xまたは11.x用のクラスタ・ノードの固定
Oracle Databaseバージョン10.xまたは11xが新しいクラスタ用Oracle Grid Infrastructureの構成上にインストールされると、そのOracle
Databaseは動的クラスタ構成用に構成されます。このとき、一部またはすべてのIPアドレスが一時的に割り当てられ、他のクラスタ識別情報も
動的になります。 この構成は、固定のアドレスおよび構成を必要とする旧リリースのデータベースとは互換性がありません。
旧リリースのデータベースを実行するノードを変更して、永続的な構成を作成することが可能です。 ノードに永続的な構成を作成することを、
ノードの固定と呼びます。
Oracle Databaseの旧バージョンのインストールの準備でノードを固定するには、Grid_home/bin/crsctlを使用して次のコマンド構文を実行しま
す。nodesは、構成を固定するクラスタ内の1つまたは複数のノードを示す、スペース区切りリストです。
crsctl pin css -n nodes
118
たとえば、ノードnode3およびnode4を固定するには、rootとしてログインし、次のコマンドを入力します。
$ crsctl pin css -n node3 node4
ノードが固定状態か非固定状態かを確認するには、Grid_home/bin/olsnodesを使用して次のコマンド構文を実行します。
固定されたすべてのノードを表示する場合:
olsnodes -t -n
次に例を示します。
# /u01/app/11.2.0/grid/bin/olsnodes -t -n
node1 1
Pinned
node2 2
Pinned
node3 3
Pinned
node4 4
Pinned
特定のノードの状態を表示する場合:
olsnodes -t -n node3
次に例を示します。
# /u01/app/11.2.0/grid/bin/olsnodes -t -n node3
node3 3
Pinned
参照:
ノードの固定および固定解除の詳細は、『Oracle Clusterware管理およびデプロイメント・ガイド』を参照して
ください。
5.3.3 Oracle Databaseリリース9.2のためのグローバル・サービス・デーモン(GSD)の有効化
Oracle Database 9iリリース2(9.2)をクラスタ用Oracle Grid Infrastructure 11gリリース2(11.2)の構成上にインストールした場合、グ
ローバル・サービス・デーモン(GSD)はデフォルトで無効になります。 Oracle Databaseリリース9.2をインストールする前に、次のコマンド
を使用してGSDを有効にします。
srvctl enable nodeapps -g
srvctl start nodeapps
5.3.4 適切なLSNRCTLコマンドの使用
lsnrctlコマンドを使用して11gリリース2のローカル・リスナーおよびSCANリスナーを管理するには、環境変数$ORACLE_HOMEにGrid
Infrastructureホーム(グリッド・ホーム)のパスを設定します。 以前のリリースで使用していたOracleホームの位置からlsnrctlコマンドを使
用しないでください。この位置は新しいリリースでは使用できません。
5.4 インストール後のOracle Clusterwareバイナリの変更
インストール後にOracle Clusterware構成の変更が必要になった場合は、グリッド・ホームをロック解除する必要があります。
たとえば、個別パッチを適用する場合や、Oracle Exadata構成を変更して、デフォルトのUDPを使用するかわりにインターコネクト上でRDS経由
のIPCトラフィックを実行する場合は、グリッド・ホームのロック解除が必要になります。
119
注意:
実行可能ファイルを再リンクする前に、Oracleホーム・ディレクトリで実行されている、再リンク対象の実行可
能ファイルをすべて停止する必要があります。 また、Oracle共有ライブラリにリンクされているアプリケーショ
ンも停止してください。
次の手順に従って、ホームをロック解除します。
1.
パスGrid_home/crs/installに移動します。Grid_homeはグリッド・ホームのパスです。次に、コマンドrootcrs.pl -unlock -crshome
Grid_homeを使用して、グリッド・ホームをロック解除します。ここでは、Grid_homeは使用しているGrid Infrastructureホームの
パスです。 たとえば、グリッド・ホームが/u01/app/11.2.0/gridの場合、次のコマンドを入力します。
# cd /u01/app/11.2.0/grid/crs/install
# perl rootcrs.pl -unlock -crshome /u01/app/11.2.0/grid
2.
ユーザーをGrid Infrastructureソフトウェア所有者に変更し、コマンド構文make -f Grid_home/lib/ins_rdbms.mk targetを使用して
バイナリを再リンクします。この場合、Grid_homeはグリッド・ホーム、targetは再リンクするバイナリです。 たとえば、Gridユー
ザーがgrid、$ORACLE_HOMEがグリッド・ホームに設定されている場合に、インターコネクト・プロトコルをUDPからIPCに更新するに
は、次のコマンドを入力します。
# su grid
$ make -f $ORACLE_HOME/lib/ins_rdbms.mk ipc_rds ioracle
注意:
バイナリを再リンクする場合、グリッド・インストール所有者に変更して、コマンドGrid_home/bin/
relinkを実行することも可能です。
3.
次のコマンドを使用して、グリッド・ホームを再度ロックし、クラスタを再起動します。
# perl rootcrs.pl -patch
4.
各クラスタ・メンバー・ノードで、手順1から3を繰り返します。
120
6 Oracle Grid Infrastructureを変更または削除する方法
この章では、Oracle ClusterwareとOracle ASMの削除方法について説明します。
この章の内容は次のとおりです。
●
Oracle Clusterwareを削除するタイミングの決定
●
Oracle RestartからOracle Clusterwareへの移行
●
クラスタへのスタンドアロン・グリッド・インフラストラクチャ・サーバーの追加
●
クラスタ用Oracle Grid Infrastructureのバイナリの再リンク
●
Oracle ClusterwareとASMの削除
参照:
個々の製品を削除する場合は、要件および制限について製品固有のドキュメントを参照してください。
6.1 Oracle Clusterwareを削除するタイミングの決定
次のような場合に、インストールされたコンポーネントを削除します。
●
学習環境またはテスト環境のいずれかで、Oracle Clusterwareを正常にインストールした後、Clusterwareインストールを削除する必
要がある場合。
●
Oracle Clusterwareを正常にインストールしたが、以前のリリースにダウングレードする必要がある場合。
●
Oracle Clusterwareのインストールまたはアップグレード中、またはその後にエラーが発生し、インストールを再試行する場合。
●
ハードウェア障害またはオペレーティング・システム障害のため、インストールまたはアップグレードが停止した場合。
●
Oracle Clusterwareを再インストールするようにOracleサポート・サービスからアドバイスされた場合。
6.2 Oracle RestartからOracle Clusterwareへの移行
Oracle Clusterwareのインストールに使用するサーバーにOracle Restart(スタンドアロン・サーバー用Oracle Grid Infrastructure)をイン
ストールしてある場合は、Oracle Restartのインストールを削除し、Oracle Clusterwareを含むクラスタ用Oracle Grid Infrastructureをイン
ストールする必要があります。 Oracle Restartが構成されているノードでOracle Clusterwareをインストールすることはできません。また、
Oracle Restartが構成されているノードが存在する可能性があるクラスタにOracle Clusterwareをインストールすることもできません。
Oracle Restartを構成解除してOracle Clusterwareをインストールするには、次の手順を実行します。
1.
srvctl configコマンドを実行して、Oracle Restartを使用しているデータベースやリスナーの構成を調べます。 構成情報を書き留めま
す。 次に例を示します。
$ srvctl config listener
2.
Oracle Restartを構成解除します。
121
3.
このマニュアルの説明に従って、Oracle Clusterware構成のためにサーバーを準備します。
4.
Oracle ClusterwareとOracle ASMが含まれるOracle Grid Infrastructureをインストールし、構成します。
5.
srvctl addコマンドを実行して、Oracle Restartで以前にサポートされていたデータベース、リスナー、その他の構成情報を追加しま
す。
6.3 クラスタへのスタンドアロン・グリッド・インフラストラクチャ・サーバーの追加
Oracle Restart(スタンドアロン・サーバー用のOracle Grid Infrastructureインストール)を使用するOracle Databaseインストールがあり、
そのサーバーをクラスタ・メンバー・ノードとして構成する場合は、次の作業を行います。
1.
次の構文でsrvctlを使用してOracle構成を調べます。db_unique_nameはデータベースの一意の名前、lsnrnameはリスナー名です。
srvctl config database -d db_unique_name
srvctl config service -d db_unique_name
srvctl config listener -l lsnrname
サーバーの構成情報を書き留めます。
2.
Grid home/crs/installに移動します。 次に例を示します。
# cd /u01/app/11.2.0/grid/crs/install
3.
次のコマンドを使用して、スタンドアロン・サーバー用のOracle Grid Infrastructureインストールを構成解除し、削除します。
# roothas.pl -deconfig
4.
既存のノードから、クラスタ用Oracle Grid Infrastructureソフトウェアをクローニングします。
5.
手順1で記録した構成情報を使用して、クラスタ用Oracle Grid InfrastructureでサポートされるようにOracle Databaseを追加しま
す。次のコマンド構文を使用します。db_unique_nameはノード上のデータベースの一意の名前、nodenameはノード名です。
srvctl add database -d db_unique_name -o $ORACLE_HOME -x nodename
たとえば、データベース名がmydb_node1、ノード名がnode1の場合は、次のコマンドを入力します。
srvctl add database -d mydb_node1 -o $ORACLE_HOME -x node1
6.
srvctl add serviceコマンドを使用して、各サービスをデータベースに追加します。
6.4 クラスタ用Oracle Grid Infrastructureのバイナリの再リンク
クラスタ用Oracle Grid Infrastructure(クラスタ用に構成されたOracle ClusterwareとOracle ASM)をインストールした後、バイナリを変更
する必要がある場合は、次の手順を実行します。Grid_homeはクラスタ用グリッド・インフラストラクチャのホームです。
注意:
実行可能ファイルを再リンクする前に、Oracleホーム・ディレクトリで実行されている、再リンク対象の実行可
能ファイルをすべて停止する必要があります。 また、Oracle共有ライブラリにリンクされているアプリケーショ
ンも停止してください。
122
rootで次のコマンドを実行します。
# cd Grid_home/crs/install
# perl rootcrs.pl -unlock
クラスタ用グリッド・インフラストラクチャの所有者として次のコマンドを実行します。
$ export ORACLE_HOME=Grid_home
$ Grid_home/bin/relink
再度rootで次のコマンドを実行します。
# cd Grid_home/crs/install
# perl rootcrs.pl -patch
オペレーティング・システムのパッチを適用したときやオペレーティング・システムのアップグレードをした後は毎回、Oracle Clusterwareと
Oracle ASMのバイナリを再リンクする必要があります。
6.5 Oracle Database 11gの削除
deinstallコマンドによって、Oracle ClusterwareおよびASMをサーバーから削除できます。 次の項では、このコマンドと、それを使用するための
追加オプションについて説明します。
●
削除ツールについて
●
Oracle ClusterwareおよびASMに対するdeinstallコマンドの実行例
●
クラスタ用グリッド・インフラストラクチャの削除パラメータ・ファイルの例
6.5.1 削除ツールについて
削除ツール(deinstall)は、インストール・メディアからインストールした後、Oracleホーム・ディレクトリから使用できます。 このツール
は、パス$ORACLE_HOME/deinstallにあります。
deinstallコマンドによって、Oracleソフトウェアが停止され、Oracleソフトウェアおよびオペレーティング・システムの構成ファイルが削除され
ます。
このコマンドでは次の構文を使用します。可変的な内容はイタリック体で示されています。
deinstall -home complete path of Oracle home [-silent] [-checkonly] [-local]
[-paramfile complete path of input parameter property file] [-params name1=value
name2=value . . .] [-o complete path of directory for saving files] [-help ¦ -h]
オプションは次のとおりです。
●
-home
このフラグは、確認または削除するOracleホームのパスを指定します。 削除しようとしているOracleホームでdeinstallコマンドを使
用してOracleソフトウェアを削除する場合は、別の場所にパラメータ・ファイルを用意し、-homeフラグは使用しないでください。
●
-silent
123
このフラグを使用すると、コマンドが非対話モードで実行されます。 このオプションを指定する場合は、削除または構成解除する
Oracleホームの構成値が記述されたプロパティ・ファイルが必要です。
プロパティ・ファイルを作成し、必要なパラメータを指定するには、responseフォルダにあるテンプレート・ファイルdeinstall.rsp.
tmplを参照してください。 必要に応じて、テンプレート・ファイルを使用するかわりに、-checkonlyオプションを使用してプロパ
ティ・ファイルを生成し、deconfigで削除および構成解除するOracleホームの情報を見つけることもできます。 この方法でも、silentオプションで使用できるプロパティ・ファイルが生成されます。
●
-checkonly
このフラグを指定すると、Oracleソフトウェアのホーム構成の状態が確認されます。 checkonlyフラグを指定してコマンドを実行し
た場合、Oracleの構成は削除されません。
●
-local
このフラグを複数ノード環境で指定すると、クラスタのOracleソフトウェアの構成が解除されます。
このフラグを指定してdeconfigを実行すると、ローカル・ノード(deconfigが実行されたノード)のOracleソフトウェアの構成が解除
され、Oracleソフトウェアが削除されます。 リモート・ノードでは、Oracleソフトウェアの構成は解除されますが、Oracleソフト
ウェアは削除されません。
●
-paramfile 入力パラメータのプロパティ・ファイルの完全パス
このフラグを指定すると、デフォルト以外の場所にあるパラメータ・ファイルを使用してdeconfigが実行されます。 このフラグを使
用する場合は、パラメータ・ファイルが存在する場所を完全パスで指定します。
パラメータ・ファイルのデフォルトの位置は、deconfigの位置によって異なります。
❍
❍
❍
●
インストール・メディアまたはステージングの場所: $ORACLE_HOME/inventory/response
OTNから解凍されたアーカイブ・ファイル: /ziplocation/response
インストール後のインストール済Oracleホーム: $ORACLE_HOME/deinstall/response
-params [name1=value name2=value name3=value ...]
このフラグをパラメータ・ファイルとともに使用すると、作成済のパラメータ・ファイルに記述された1つ以上の値を上書きできま
す。
●
-o 保存するレスポンス・ファイルのディレクトリの完全パス
このフラグを指定すると、デフォルト以外の場所に、プロパティ・ファイル(deinstall.rsp.tmpl)を保存するパスが指定されます。
パラメータ・ファイルのデフォルトの位置は、deconfigの位置によって異なります。
❍
❍
❍
●
インストール・メディアまたはインストール前のステージングの場所: $ORACLE_HOME/
OTNから解凍されたアーカイブ・ファイル: /ziplocation/response/
インストール後のインストール済Oracleホーム: $ORACLE_HOME/deinstall/response
-help ¦ -h
ヘルプ・オプション(-helpまたは-h)を指定すると、コマンドのオプション・フラグに関する追加情報を取得できます。
124
6.5.2 Oracle ClusterwareおよびASMに対するdeinstallコマンドの実行例
deinstallコマンドを実行すると、システムから削除するOracleソフトウェアのホーム・ディレクトリを指定するように求めるプロンプトが表示さ
れます。 プロンプトが表示されたら、さらに情報を入力します。
ソフトウェア所有者のパス/home/usr/gridにあるパラメータ・ファイルを使用して、パス/u01/app/11.2.0/gridにあるクラスタ用Oracle Grid
Infrastructureのホームからdeinstallコマンドを実行するには、次のように入力します。
$ cd /u01/app/11.2.0/grid/deinstall/
$ ./deinstall -paramfile /home/usr/grid/myparamfile.tmpl
ホームを削除するコマンドを実行する前に、-checkonlyフラグを使用してdeinstallコマンドを実行すると、パラメータ・ファイルを生成できま
す。またはレスポンス・ファイル・テンプレートを手動で編集してパラメータ・ファイルを作成し、deinstallコマンドで使用することもできま
す。
6.5.3 クラスタ用グリッド・インフラストラクチャのための削除パラメータ・ファイルの例
-paramfileオプションを指定してdeinstallコマンドを実行し、パラメータ・ファイルで指定した値を使用できます。 ノードnode1およびnode2の
クラスタ用のパラメータ・ファイルの例を次に示します。この例では、クラスタ用Oracle Grid Infrastructureソフトウェアのバイナリ所有者
はgrid、Oracle Grid Infrastructureホーム(グリッド・ホーム)はパス/u01/app/11.2.0/gridにあり、Oracleベース(Oracle ASMログ・ファイ
ルやOracle Clusterwareログなどの管理ファイルが格納されたグリッド・インフラストラクチャのOracleベース)は/u01/app/grid/、中央
Oracle Inventoryホーム(oraInventory)は/u01/app/oraInventory、仮想IPアドレス(VIP)は192.0.2.2と192.0.2.4、ローカル・ノード(削除
セッションを実行しているノード)はnode1です。
#Copyright (c) 2005, 2006 Oracle Corporation. All rights reserved.
#Fri Feb 06 00:08:58 PST 2009
LOCAL_NODE=node1
HOME_TYPE=CRS
ASM_REDUNDANCY=¥
ORACLE_BASE=/u01/app/grid/
VIP1_MASK=255.255.252.0
NEW_NODEVIPS='node1-vip/255.255.252.0/eth0,node2-vip/255.255.252.0/eth0'
VOTING_DISKS=/u02/storage/grid/vdsk
SCAN_PORT=1522
silent=true
ASM_UPGRADE=false
ORA_CRS_HOME=/u01/app/11.2.0/grid
GPNPCONFIGDIR=$ORACLE_HOME
LOGDIR=/home/grid/SH/deinstall/logs/
GPNPGCONFIGDIR=$ORACLE_HOME
ORACLE_OWNER=grid
NODELIST=node1,node2
CRS_STORAGE_OPTION=2
NETWORKS="eth0"/192.0.2.1¥:public,"eth1"/10.0.0.1¥:cluster_interconnect
VIP1_IP=192.0.2.2
NETCFGJAR_NAME=netcfg.jar
ORA_DBA_GROUP=dba
CLUSTER_NODES=node1,node2
JREDIR=/u01/app/11.2.0/grid/jdk/jre
VIP1_IF=eth0
REMOTE_NODES=node2
VIP2_MASK=255.255.252.0
ORA_ASM_GROUP=asm
LANGUAGE_ID='AMERICAN_AMERICA.WE8ISO8859P1'
CSS_LEASEDURATION=400
NODE_NAME_LIST=node1,node2
SCAN_NAME=node1scn
SHAREJAR_NAME=share.jar
HELPJAR_NAME=help4.jar
SILENT=false
local=false
INVENTORY_LOCATION=/u01/app/oraInventory
GNS_CONF=false
JEWTJAR_NAME=jewt4.jar
OCR_LOCATIONS=/u02/storage/grid/ocr
EMBASEJAR_NAME=oemlt.jar
125
ORACLE_HOME=/u01/app/11.2.0/grid
CRS_HOME=true
VIP2_IP=192.0.2.4
ASM_IN_HOME=n
EWTJAR_NAME=ewt3.jar
HOST_NAME_LIST=node1,node2
JLIBDIR=/u01/app/11.2.0/grid/jlib
VIP2_IF=eth0
VNDR_CLUSTER=false
CRS_NODEVIPS='node1-vip/255.255.252.0/eth0,node2-vip/255.255.252.0/eth0'
CLUSTER_NAME=node1-cluster
126
A Oracle Grid Infrastructureのインストール・プロセスに関するトラブルシューティン
グ
この付録では、Oracle Grid Infrastructureのインストールに関するトラブルシューティング情報について説明します。
参照:
ドキュメント・ディレクトリに含まれるOracle Database 11g Oracle RACのドキュメントを参照してください。
●
『Oracle Clusterware管理およびデプロイメント・ガイド』
●
『Oracle Real Application Clusters管理およびデプロイメント・ガイド』
この付録の内容は次のとおりです。
●
一般的なインストールの問題
●
詳細モードによるCVUの「不明」出力メッセージの解釈
●
Oracle Grid Infrastructureの設定に関するCVUメッセージの解釈
●
Oracle Clusterwareアラート・ログについて
●
Linuxでのオペレーティング・システム・パッケージの不足
●
Oracle Grid Infrastructureのインストール中のクラスタ診断の実行
●
インターコネクト構成の問題
A.1 一般的なインストールの問題
次に、インストール中に発生する可能性のある様々なエラーの例を示します。 この項の内容は次のとおりです。
●
ディスクの取得中にエラーが発生する
●
/usr/X11R6/bin/xdpyinfoコマンドを使用して表示色の自動チェックを実行できない
●
サーバーに接続できない(サーバーによって接続を拒否されたか、または表示を開くことができない)
●
ocrconfigを初期化できない
●
INS-32026 INSTALL_COMMON_HINT_DATABASE_LOCATION_ERROR
●
MEMORY_TARGETはこのシステムではサポートされていない
●
OUIのノードの選択画面で選択可能なノードがない
127
●
ノードnodenameに到達できない
●
PROT-8: 指定したファイルからクラスタ・レジストリにデータをインポートできない
●
YPBINDPROC_DOMAIN: ドメインがバインドされない
ディスクの取得中にエラーが発生する
原因: 存在しないOracleホームを指しているエントリが/etc/oratabにあります。 OUIのログ・ファイルには、エラーが「java.io.
IOException: /home/oracle/OraHome//bin/kfod: 見つかりませんでした」のように出力されます。
処置: 存在しないOracleホームを指しているエントリを/etc/oratabから削除してください。
/usr/X11R6/bin/xdpyinfoコマンドを使用して表示色の自動チェックを実行できない
原因: DISPLAY変数が設定されていないか、インストールを実行しているユーザーにX Windowを開く権限がありません。 これは、リモート端末
からインストールを実行している場合や、ディスプレイ上でX Windowを開く権限のあるユーザーからX Windowを開く権限のないユーザー・アカ
ウントへsuコマンドを使用して変更している場合(rootユーザーのコンソール・ディスプレイで低い権限のユーザーがウィンドウを開いている
場合など)に起こります。
処置: echo $DISPLAYコマンドを使用して、環境変数に正しいディスプレイ、つまり正しいホストが設定されていることを確認してください。
DISPLAY変数が正しく設定されていたら、X Windowを開く権限のあるユーザーでログインしていることを確認するか、またはxhost +コマンドを
実行してすべてのユーザーにX Windowを開く許可を与えてください。
サーバー・コンソール上でrootとしてローカルでログインし、su -コマンドを使用してGrid Infrastructureのインストール所有者に変更した場
合は、サーバーからログアウトし、Gridのインストール所有者としてログインしなおしてください。
サーバーに接続できない(サーバーによって接続を拒否されたか、または表示を開くことができない)
原因: これらは、xhostが適切に構成されていない場合か、Xサーバーを起動するためにstartxコマンドで使用したアカウントとは異なるユー
ザー・アカウントで実行している場合の、WindowsまたはUNIXシステムに特有のX Window表示エラーです。
処置: ローカル端末ウィンドウで、X Windowセッションを開始したユーザーとしてログインし、次のコマンドを入力してください。
$ xhost fullyqualifiedRemoteHostname
次に例を示します。
$ xhost somehost.example.com
その後、次のコマンドを入力してください。workstationnameはワークステーションのホスト名またはIPアドレスです。
Bourne、BashまたはKornシェル:
$ DISPLAY=workstationname:0.0
$ export DISPLAY
X Windowアプリケーションがローカル・システムで適切に表示されるかどうかを確認するには、次のコマンドを入力します。
$ xclock
モニターにXクロックが表示されます。 このようにならない場合は、xhostコマンドの使用が制限されている可能性があります。
VNCクライアントを使用してサーバーにアクセスしている場合は、インストールに使用しようとしているユーザーに割り当てられているビジュア
ルにアクセスしていることを確認します。 たとえば、suコマンドを使用して、別のユーザー・ビジュアルでインストール所有者になった場合、
xhostコマンドの使用は制限され、xhostコマンドを使用して表示を変更することはできません。 インストール所有者に割り当てられたビジュア
ルを使用すると、正しく表示でき、xclockコマンドの入力によってxclockが表示されます。
Xクロックが表示されたら、Xクロックを閉じてインストーラを再度起動します。
ocrconfigを初期化できない
原因: /etc/fstabファイル内のNFS用に構成されたオプションが間違っています。
128
これを確認するには、Grid_home/log/nodenumber/clientパスにあるocrconfig.logファイルをチェックし、次の行を検索します。
/u02/app/crs/clusterregistry, ret -1, errno 75, os err string Value too large
for defined data type
2007-10-30 11:23:52.101: [ OCROSD][3085960896]utopen:6'': OCR location
処置: NFSにマウントされたファイル・システムの場合は、NFSマウントの正しいマウント構成を/etc/fstabファイル内で指定します。
rw,sync,bg,hard,nointr,tcp,vers=3,timeo=300,rsize=32768,wsize=32768,actimeo=0
注意:
マウントの指定にnetdevやvers=2を含めないでください。 netdevオプションを必要とするのは、OCFSファイ
ル・システムを対象とした場合のみです。また、vers=2を指定すると、カーネルによって強制的にNFSがマウント
されます。この場合、古いバージョン2のプロトコルが使用されます。
NFSマウント情報を修正した後にNFSマウント・ポイントを再マウントし、root.shスクリプトを再度実行します。 たとえば、マウント・ポイン
ト/u02の場合は次のようになります。
#umount /u02
#mount -a -t nfs
#cd $ORA_CRS_HOME
#sh root.sh
INS-32026 INSTALL_COMMON_HINT_DATABASE_LOCATION_ERROR
原因: クラスタ用のインストールでグリッド・ホームに選択した場所が、Oracleベース・ディレクトリの下にあります。
処置: クラスタ用グリッド・インフラストラクチャのインストールでは、グリッド・ホームを、Oracleベース・ディレクトリ、Oracle Database
インストール所有者のOracleホーム・ディレクトリ、インストール所有者のホーム・ディレクトリのいずれの下にも配置しないでください。 イ
ンストール中に、グリッド・ホームへのパスの所有権がrootに変更されます。 この変更により、他のインストールで権限エラーが発生しま
す。 また、Oracle Clusterwareソフトウェア・スタックも、Oracleベース・パスの下に配置しないでください。
MEMORY_TARGETはこのシステムではサポートされていない
原因: Linuxシステムでは、PGAおよびSGA用の/dev/shmのサイズが不十分です。
Linuxシステムにインストールする場合は、初期化パラメータMEMORY_TARGETまたはMEMORY_MAX_TARGETを設定する「メモリー・サイズ
(SGAおよびPGA)」をオペレーティング・システムの共有メモリー・ファイル・システム(/dev/shm)より大きい値にはできません。
処置: /dev/shmマウント・ポイントのサイズを大きくしてください。 次に例を示します。
# mount -t tmpfs shmfs -o size=4g /dev/shm
また、システムを再起動してもこの変更が保持されるようにするには、/etc/fstabに次のようなエントリを追加します。
shmfs /dev/shm tmpfs size=4g 0
OUIのノードの選択画面で選択可能なノードがない
原因: Oracle Grid Infrastructureがインストールされていないか、またはOracle Grid Infrastructureサービスが起動および実行されていま
せん。
処置: Oracle Grid Infrastructureをインストールするか、またはインストールの状態を確認してください。 また、ノードを再起動すると問題
を解決できる場合があります。
ノードnodenameに到達できない
原因: IPホストが使用不可能です。
処置: 次の手順を実行してください。
1. シェル・コマンドifconfig -aを実行します。 このコマンドの出力と/etc/hostsファイルの内容を比較して、ノードIPがリストされてい
ることを確認します。
2.
シェル・コマンドnslookupを実行して、ホストが到達可能であるかどうかを確認します。
129
PROT-8: 指定したファイルからクラスタ・レジストリにデータをインポートできない
原因: 既存のOracle Cluster Registryデバイスのパーティションに十分な領域がないため、rootupgrade.shの実行中に移行障害が発生しま
す。 確認するには、ログ・ファイル$ORA_CRS_HOME/log/hostname/client/ocrconfig_pid.logでエラー「utopen:12:Not enough space in the
backing store」を検索してください。pidはプロセスIDです。
処置: 280MB以上の使用可能な領域がある記憶域デバイスを指定します。 ディスク全体をOracle ASMに割り当てることをお薦めします。
YPBINDPROC_DOMAIN: ドメインがバインドされない
原因: このエラーは、インストール後のテスト時に、ノードのパブリック・ネットワーク・インターコネクトが取り外され、VIPによるフェイル
オーバーが行われない場合に発生する可能性があります。 このエラーでは、ノードがハングし、ユーザーはシステムにログインできなくなりま
す。 このエラーは、Oracleホーム、listener.ora、Oracleログ・ファイルまたはアクション・スクリプトがNASデバイスまたはNFSマウントに格納
されていて、ネーム・サービス・キャッシュ・デーモンnscdがアクティブになっていない場合に発生します。
処置: クラスタ内のすべてのノードで次のコマンドを入力して、nscdサービスを起動してください。
/sbin/service nscd start
A.2 詳細モードによるCVUの「不明」出力メッセージの解釈
-verbose引数を使用してクラスタ検証ユーティリティを実行し、特定のノードに対するクラスタ検証ユーティリティ・コマンドの結果が
UNKNOWNになる場合、その原因は、検証時に問題が検出されたかどうかをクラスタ検証ユーティリティで判断できないことにあります。 結果
が「不明」になる場合の、考えられる原因を次に示します。
●
●
●
●
●
ノードが停止している。
クラスタ検証ユーティリティで必要な、オペレーティング・システムの共通コマンド・バイナリが、Oracle Grid Infrastructureホー
ムの/binディレクトリまたはOracleホーム・ディレクトリで不足している。
クラスタ検証ユーティリティを起動したユーザー・アカウントには、ノードでオペレーティング・システムの共通コマンドを実行する
権限がない。
ノードで、オペレーティング・システム・パッチ、または必須パッケージが不足している。
ノードの最大プロセス数または最大オープン・ファイル数を超えているか、共有メモリー、セマフォなど、IPCセグメントに問題が発
生している。
A.3 Oracle Grid Infrastructureの設定に関するCVUメッセージの解釈
Oracle Grid Infrastructureをインストールするための要件をシステムが満たしていないことがクラスタ検証ユーティリティのレポートに示さ
れた場合は、この項の説明に従ってレポートに示されている問題を解決し、クラスタ検証ユーティリティを再実行します。
●
「ユーザーのユーザー等価チェックが失敗しました。」
●
「ノードからのノード到達可能性チェックが失敗しました。」または「ノード接続性チェックが失敗しました。」
●
「ユーザーの存在チェックが失敗しました。」または「ユーザーとグループの関係チェックが失敗しました」
「ユーザーのユーザー等価チェックが失敗しました。」
原因: すべてのノード間でユーザー等価関係の設定に失敗しました。 必要なユーザーが作成されていないか、またはセキュア・シェル(SSH)
構成が適切に完了していないことが原因である可能性があります。
処置: クラスタ検証ユーティリティによって、ユーザー等価関係の設定に失敗したノードのリストが表示されます。
失敗したノードと示されている各ノードに対して、ユーザー構成およびSSH構成が正常に完了していることをインストール所有者のユーザー構成
で確認してください。 Oracle Clusterwareのインストールを実行するユーザーには、SSH接続を作成する権限が必要です。
SSHの構成は、OUIのSSH構成オプションで行うことをお薦めします。 手動でSSHの構成を行う場合はインストール前に、インストールのために
SSHが構成済の場合はインストール後に、クラスタ検証ユーティリティを使用できます。
130
たとえば、ユーザー・アカウントoracleのユーザー等価関係を確認するには、su - oracleコマンドを使用し、dateコマンド引数を指定したsshコ
マンドを次の構文を使用してローカル・ノードで実行し、ユーザー等価関係を手動で確認します。
$ ssh nodename date
このコマンドによって、nodenameに指定した値で指定されたリモート・ノードのタイムスタンプが出力されます。 パスワードを求められた場
合、SSHの構成を行う必要があります。 デフォルトの場所(/usr/binディレクトリ)にsshがある場合は、sshを使用してユーザー等価関係を構成
します。 ユーザー等価関係は、rshを使用しても確認できます。
SSHを使用してdateコマンドを入力した際に次のメッセージが表示された場合、この問題はユーザー等価関係エラーが原因である可能性がありま
す。
The authenticity of host 'node1 (140.87.152.153)' can't be established.
RSA key fingerprint is 7z:ez:e7:f6:f4:f2:4f:8f:9z:79:85:62:20:90:92:z9.
Are you sure you want to continue connecting (yes/no)?
「yes」と入力してクラスタ検証ユーティリティを実行し、ユーザー等価関係エラーが解決されたかどうか確認します。
sshがデフォルト(/usr/bin)以外の場所にある場合は、クラスタ検証ユーティリティによって、ユーザー等価関係の検証に失敗したことがレ
ポートされます。 このエラーを回避するには、Grid_home/cv/adminディレクトリに移動し、テキスト・エディタでcvu_configファイルを開
き、ORACLE_SRVM_REMOTESHELLキーを追加または更新してシステム上のsshパスの位置を指定します。 次に例を示します。
# Locations for ssh and scp commands
ORACLE_SRVM_REMOTESHELL=/usr/local/bin/ssh
ORACLE_SRVM_REMOTECOPY=/usr/local/bin/scp
cvu_configファイルを変更する場合は、次の規則に注意します。
❍
キー・エントリはname=value構文で指定する。
❍
キーに割り当てる各キー・エントリおよび値は適切なものを1のみ定義する。
❍
シャープ記号(#)で始まる行はコメント行であり無視される。
❍
name=value構文が前にない行は無視される。
パス設定の変更後、再度クラスタ検証ユーティリティを実行します。 また、sshがデフォルト以外の場所にある場合は、リモート・シェルおよ
びリモート・コピー・コマンドに別の場所を指定するために引数を追加してOUIを起動する必要があります。 これらの引数の使用方法の詳細を
表示するには、runInstaller -helpを入力してください。
注意:
ユーザーまたはOUIがsshまたはrshコマンド(ログインや起動するその他のシェル・スクリプトを含む)を実行
し、それらのスクリプトによって出力が行われると、無効な引数または標準の入力に関するエラーが表示されま
す。 これらのエラーの原因を解決する必要があります。
エラーを回避するには、sshまたはrshコマンドを実行すると出力を生成する、oracleユーザーのログイン・スクリ
プトからすべてのコマンドを削除してください。
X11転送についてのメッセージが表示されたら、「表示およびX11転送構成の設定」のタスクを完了し、この問題
を解決します。
次のようなエラーが出力される場合もあります。
stty: standard input: Invalid argument
stty: standard input: Invalid argument
131
これらのエラーは、システム上の隠しファイル(.bashrc、.cshrcなど)にsttyコマンドが含まれている場合に発生
します。 このエラーが表示された場合は、第2章の「インストール中にsttyコマンドによって発生するエラーの
防止」を参照してこれらの問題の原因を解決してください。
「ノードからのノード到達可能性チェックが失敗しました。」または「ノード接続性チェックが失敗しました。」
原因: クラスタ内に、TCP/IPプロトコルを使用したパブリックまたはプライベート・インターコネクトで到達できない1つ以上のノードがありま
す。
処置: /bin/ping addressコマンドを使用して、各ノードのアドレスを確認してください。 到達できないアドレスを発見した場合は、パブリック
およびプライベート・アドレスのリストを確認して、それらを正しく構成してください。 他社ベンダーのクラスタウェアを使用する場合に役立
つ情報については、そのベンダーのドキュメントを参照してください。 パブリック・ネットワーク・インタフェースおよびプライベート・ネッ
トワーク・インタフェースのインタフェース名は、クラスタ内の各ノードで同じである必要があります。
「ユーザーの存在チェックが失敗しました。」または「ユーザーとグループの関係チェックが失敗しました」
原因: インストールに必要なユーザーおよびグループの管理権限が付与されていないか、または正しくありません。
処置: 各ノードでidコマンドを使用して、インストール所有者ユーザー(gridやoracleなど)が正しいグループ・メンバーシップで作成されてい
ることを確認してください。 必要なグループを作成していることを確認し、影響のあるノードでユーザー・アカウントを作成または変更して、
必要なグループ・メンバーシップを設定してください。
参照:
必要なグループの作成方法およびインストール所有者ユーザーの構成方法については、第2章の「Oracle Grid
Infrastructureのグループ、ユーザーおよびパスの作成」を参照してください。
A.4 Oracle Clusterwareアラート・ログについて
深刻なエラーを見つけるには、まずOracle Clusterwareのアラート・ログを見ます。 エラーが発生すると、エラーの原因に関する具体的な情報
がある診断ログのパス情報が含まれていることがあります。
重要なイベントが発生した場合には、インストール後に、Oracle Clusterwareがアラート・メッセージを書き込みます。 たとえば、Cluster
Ready Services(CRS)デーモン・プロセスからのアラート・メッセージは、起動時、中断した場合、フェイルオーバー・プロセスが失敗した場
合、CRSリソースの自動再起動が失敗した場合に出力されます。
Enterprise ManagerはClusterwareのログ・ファイルを監視し、エラーが検出されると「クラスタ・ホーム」ページにアラートを書き込みま
す。 たとえば、投票ディスクが利用できない場合はCRS-1604エラーが発生し、「クラスタ・ホーム」ページにクリティカル・アラートが書き込
まれます。 「メトリックとポリシー設定」ページで、エラー検出とアラートの設定をカスタマイズできます。
Oracle Clusterwareのログ・ファイルの場所は、CRS_home/log/hostname/alerthostname.logです。CRS_homeはOracle Clusterwareがインス
トールされたディレクトリ、hostnameはローカル・ノードのホスト名です。
参照:
『Oracle Real Application Clusters管理およびデプロイメント・ガイド』
A.5 Linuxでのオペレーティング・システム・パッケージの不足
Oracle Grid Infrastructure、Oracle RACまたはOracle Databaseのインストール時に次のようなエラー・メッセージが表示された場合は、シス
テムのオペレーティング・システム・パッケージが不足しています。
libstdc++.so.5: cannot open shared object file: No such file or directory
libXp.so.6: cannot open shared object file: No such file or directory
不足しているパッケージはインストール中に見つかり、このようなエラーは発生しないはずです。 動作保証されていないオペレーティング・シ
ステムのディストリビューションを使用しているか、古いバージョンのクラスタ検証ユーティリティを使用していることを示している可能性が
あります。
Red Hatネットワーク、Oracle Unbreakable LinuxサポートなどのLinuxサポート・ネットワークが構成されている場合は、up2dateコマンドを使
用してパッケージの名前を確認できます。 次に例を示します。
132
# up2date --whatprovides libstdc++.so.5
compat-libstdc++-33.3.2.3-47.3
また、クラスタ検証ユーティリティの最新バージョンをダウンロードして、必要なパッケージの最新リストを入手してください。 最新バージョ
ンは、次のURLから入手できます。
http://www.oracle.com/technology/products/database/clustering/cvu/cvu_download_homepage.html
A.6 Oracle Grid Infrastructureのインストール中のクラスタ診断の実行
インストーラで「ノードの選択」ページが表示されない場合は、次のコマンド構文を使用してクラスタ・マネージャの整合性を検証します。
cluvfy comp clumgr -n node_list -verbose
前述の構文例で、node_list変数は、クラスタ内のノードのカンマ区切りリストです。
注意:
cronジョブの実行中または実行後に予期しないインストール・エラーが発生した場合は、インストールが完了す
る前にcronジョブによって一時ファイルが削除されている可能性があります。 日常のcronジョブを実行する前に
インストールを完了するか、インストールが完了するまで、クリーンアップを行う日常のcronジョブを無効にす
ることをお薦めします。
A.7 インターコネクト構成の問題
インターコネクトに複数のネットワーク・インタフェース・カード(NIC)を使用する場合は、オペレーティング・システムのレベルでNICをボ
ンディングする必要があります そうしない場合、1つのNICの障害が、クラスタ・ノードの可用性に影響します。
Oracle Grid InfrastructureおよびOracle RACをインストールする場合は、インターコネクトに同じNICカードまたはボンディングされたNIC
カードを使用する必要があります。
ボンディングされたNICカードを使用する場合は、それらが同じサブネット上に存在している必要があります。
エラーが発生したら、次のシステム検証を実行してください。
●
●
スイッチに適切なケーブル(長さやタイプ)やソフトウェアが使用されていることを、ネットワーク・プロバイダに確認してくださ
い。 場合によっては、負荷によって切断を起こす不具合を回避するため、またはジャンボ・フレームなどの追加機能をサポートする
ために、インターコネクト・スイッチのファームウェアのアップグレードや、新しいNICドライバ、オペレーティング・システム・レ
ベルの新しいファームウェアが必要になることがあります。 こうした修正を行わずに実行すると、初めのインストールは正常に見え
ても、後でOracle RACデータベースが不安定になることがあります。
ベンダーおよびOracleの推奨事項に従って、VLAN構成、二重化設定、自動ネゴシエーションを確認してください。
133
B レスポンス・ファイルを使用したOracle Databaseのインストールおよび構成
この付録では、レスポンス・ファイルを使用してOracle製品をインストールおよび構成する方法について説明します。 内容は次のとおりです。
●
レスポンス・ファイルの機能
●
oraInst.locファイルの作成
●
レスポンス・ファイルの準備
●
レスポンス・ファイルを使用したインストーラの実行
●
レスポンス・ファイルを使用したNet Configuration Assistantの実行
●
レスポンス・ファイルを使用したDatabase Configuration Assistantの実行
●
レスポンス・ファイルを使用したインストール後の構成
B.1 レスポンス・ファイルの機能
インストーラの起動時にレスポンス・ファイルを使用して、Oracleソフトウェアのインストールと構成を完全にまたは部分的に自動実行できま
す。 インストーラはレスポンス・ファイルに含まれる値を使用して、一部またはすべてのインストール・プロンプトに応答します。
通常、インストーラは対話型で、つまりグラフィカル・ユーザー・インタフェース(GUI)画面で情報の入力を求めながら動作します。 この情
報をレスポンス・ファイルで提供する場合は、次のいずれかのモードで、コマンド・プロンプトからインストーラを起動します。
●
サイレント・モード
レスポンス・ファイルにすべてのプロンプトへの応答を含め、インストーラの起動時に-silentオプションを指定すると、インストーラ
はサイレント・モードで動作します。 サイレント・モードでのインストール中、インストーラは画面上に何も表示しません。 かわり
に、起動に使用した端末上に進捗情報を表示します。
●
レスポンス・ファイル・モード
レスポンス・ファイルに一部またはすべてのプロンプトへの応答を含めて、-silentオプションを指定しないと、インストーラはレスポ
ンス・ファイル・モードで動作します。 レスポンス・ファイル・モードでのインストール中は、レスポンス・ファイルで情報を指定
した画面も、レスポンス・ファイルに必要な情報を指定しなかった画面も含めて、インストーラはすべての画面を表示します。
サイレント・モードまたはレスポンス・ファイル・モードでインストールするための設定は、レスポンス・ファイルにリストされた変数に値を
入力して定義します。 たとえば、Oracleホームの名前を指定するには、次のように、ORACLE_HOME変数に適切な値を入力します。
ORACLE_HOME="OraDBHome1"
レスポンス・ファイルの変数設定を指定するもう1つの方法は、インストーラの起動時にコマンドライン引数として渡す方法です。 次に例を示
します。
-silent "ORACLE_HOME=OraDBHome1" ...
この方法は、レスポンス・ファイルにパスワードなどの機密情報を含めたくない場合に特に役立ちます。 次に例を示します。
-silent "s_dlgRBOPassword=binks342" ...
134
変数とその設定は、必ず引用符で囲むようにします。
参照:
レスポンス・ファイルの詳細は、『Oracle Universal InstallerおよびOpatchユーザーズ・ガイドfor
Microsoft Windows and UNIX Systems』を参照してください。
B.1.1 サイレント・モードまたはレスポンス・ファイル・モードを使用する理由
次の表に、インストーラをサイレント・モードまたはレスポンス・ファイル・モードで実行する場合の例を示します。
モード
用途
サイレント
サイレント・モードは次の場合に使用します。
●
atなどのオペレーティング・システム・ユーティリティを使用してスケジュールを設定し、自動インス
トールを実行する。
●
ユーザーの介入なしで、複数のシステムで同様のインストールを数回実行する。
●
X Window Systemソフトウェアがインストールされていないシステムにソフトウェアをインストールする。
インストーラは起動元の端末に進捗情報を表示しますが、インストーラ画面はまったく表示しません。
レスポンス・ファイル
レスポンス・ファイル・モードは、インストーラ・プロンプトの全部ではなく一部にデフォルトの応答を提供し、複
数のシステムに同様のOracleソフトウェア・インストールを行う場合に使用します。
レスポンス・ファイル・モードでは、すべてのインストーラ画面が表示されますが、これらの画面の該当フィールド
には、レスポンス・ファイルによってデフォルトの値が入力されます。 レスポンス・ファイルで値を指定していない
ものについては、画面のフィールドに情報を入力する必要があります。
B.1.2 レスポンス・ファイルの一般的な使用手順
次に、インストーラをサイレント・モードまたはレスポンス・ファイル・モードで使用して、Oracle製品をインストールし構成する一般的な手
順を示します。
注意:
インストーラをサイレント・モードまたはレスポンス・ファイル・モードで実行する前に、必要なインストール
前の手順をすべて終了しておく必要があります。
1.
サーバー上にoraInst.locファイルがない場合は、これを作成します。
2.
レスポンス・ファイルを準備します。
3.
インストーラをサイレント・モードまたはレスポンス・ファイル・モードで実行します。
4.
ソフトウェアのみのインストールを終了したら、次にNet Configuration AssistantおよびDatabase Configuration Assistantをサイ
レント・モードまたはレスポンス・ファイル・モードで実行します。
この手順については、次の項で説明します。
135
B.2 oraInst.locファイルの作成
インストーラをサイレント・モードまたはレスポンス・ファイル・モードで使用してOracle製品をインストールするときに、既存のoraInst.loc
ファイルがない場合は、手動でoraInst.locファイルを作成する必要があります。 このファイルはOracle Inventoryディレクトリの場所を指定し
ます。インストーラはここに、システムにインストールするOracle製品の中央インベントリを作成します。
注意:
システムにOracleソフトウェアがすでにインストールされている場合、oraInst.locファイルはすでに存在するはず
です。 ファイルが存在すれば、作成する必要はありません。
oraInst.locファイルを作成するには、次の手順を実行します。
1.
ユーザーをrootに切り替えます。
$ su - root
2.
ディレクトリを変更します。
# cd /etc/
3.
テキスト・エディタを使用して、次の行を含むoraInst.locファイルを作成します。
inventory_loc=$ORACLE_BASE/oraInventory
inst_group=oinstall
この例では、Oracleソフトウェア・インストール所有者の環境変数$ORACLE_BASEに、/u01/app/oracleなどの、Oracleベース・ディ
レクトリのパスを設定されていることを前提としています。
4.
oraInst.locファイルの所有者をOracleソフトウェア・インストール所有者にして、oraInventoryグループのメンバーに設定し、権限を
664に変更します。たとえば、インストール所有者がoracleで、oraInventoryグループがoinstallである場合は、次のコマンドを入力し
ます。
# chown oracle:oinstall oraInst.loc
# chmod 664 oraInst.loc
B.3 レスポンス・ファイルの準備
この項では、レスポンス・ファイルを準備して、サイレント・モードまたはレスポンス・ファイル・モードのインストールで使用する、次の方
法について説明します。
●
レスポンス・ファイル・テンプレートの編集
●
レスポンス・ファイルの記録
B.3.1 レスポンス・ファイル・テンプレートの編集
Oracleでは、各製品およびインストール・タイプと各構成ツールに対応する、レスポンス・ファイルのテンプレートを提供しています。 ファイ
ルは、インストール・メディアのdatabase/responseディレクトリに格納されています。
注意:
ソフトウェアをハード・ディスクにコピーした場合、レスポンス・ファイルは/responseディレクトリにありま
す。
136
表B-1に、このソフトウェアに付属するレスポンス・ファイルを示します。
表B-1 Oracle Databaseのレスポンス・ファイル
レスポンス・ファイル
説明
db_install.rsp
Oracle Database 11g のサイレント・インストール
dbca.rsp
Database Configuration Assistantのサイレント・インストール
netca.rsp
Oracle Net Configuration Assistantのサイレント・インストール
表B-2 Oracle Grid Infrastructureのレスポンス・ファイル
レスポンス・ファイル
説明
crs_install.rsp
Oracle Grid Infrastructureインストール環境のサイレント・インストール
注意:
レスポンス・ファイル・テンプレートを変更し、保存して使用する場合、レスポンス・ファイルに暗号化されて
いないパスワードが含まれている場合があります。 レスポンス・ファイルの所有者はOracleソフトウェア・イン
ストール所有者のみとし、レスポンス・ファイルの権限を600に変更してください。データベース管理者またはそ
の他の管理者には、使用していないレスポンス・ファイルを削除または保護することをお薦めします。
レスポンス・ファイルをコピーして変更するには、次の手順を実行します。
1.
レスポンス・ファイル・ディレクトリからシステム上のディレクトリに、レスポンス・ファイルをコピーします。
$ cp /directory_path/response/response_file.rsp local_directory
この例では、directory_pathはインストール・メディアのdatabaseディレクトリのパスです。 ソフトウェアをハード・ドライブにコ
ピーしている場合は、必要に応じてresponseディレクトリ内のファイルを編集することも可能です。
2.
テキスト・エディタでレスポンス・ファイルを開きます。
$ vi /local_dir/response_file.rsp
パスワードなどの機密情報は、レスポンス・ファイルに指定するのではなく、コマンドラインで指定できます。 この方法について
は、「レスポンス・ファイルの機能」を参照してください。
参照:
レスポンス・ファイルの生成の詳細は、『Oracle Universal InstallerおよびOpatchユーザーズ・ガイド
for Microsoft Windows and UNIX Systems』を参照してください。
3.
ファイルに記載された説明に従って編集します。
137
注意:
レスポンス・ファイルを正しく構成しないと、インストーラまたはConfiguration Assistantが失敗しま
す。
4.
ファイルの権限を600に変更します。
$ chmod 600 /local_dir/response_file.rsp
注意:
Oracle Databaseのインストールに必要なすべての項目を指定したレスポンス・ファイルには、データ
ベース管理アカウント用のパスワードと、OSDBAグループのメンバーであるユーザー用のパスワード(自
動バックアップに必要)が含まれています。 Oracleソフトウェア所有者であるユーザーのみがレスポン
ス・ファイルを参照または変更できるようにするか、インストールの正常終了後にレスポンス・ファイル
を削除することを検討してください。
B.3.2 レスポンス・ファイルの記録
インストーラを対話モードで使用してレスポンス・ファイルに記録し、このファイルを編集して完全なサイレント・モードまたはレスポンス・
ファイル・モードのインストールに使用できます。 この方法は、カスタム・インストールまたはソフトウェアのみのインストールに役立ちま
す。
Oracle Database 11g リリース2(11.2)以降では、「サマリー」ページで「レスポンス・ファイルの保存」をクリックすると、インストール中
のすべてのインストール手順をレスポンス・ファイルに保存できます。 生成されたレスポンス・ファイルは、後でサイレント・インストールに
使用できます。
レスポンス・ファイルを記録する際は、インストールを最後まで実行することも、またはシステムにソフトウェアをコピーする前に「サマ
リー」ページで終了することもできます。
レスポンス・ファイル・モードのインストール中に記録モードを使用すると、インストーラは元のレスポンス・ファイルに指定されていた変数
値を新しいレスポンス・ファイルに記録します。
注意:
標準インストール方法では、インストール中に記録モードを使用してレスポンス・ファイルを作成することはで
きません。
レスポンス・ファイルを記録するには、次の手順を実行します。
1.
通常のインストールと同様にインストール前の作業を実行します。
インストーラを実行してレスポンス・ファイルに記録する際、インストーラはシステムを確認してソフトウェアをインストールするた
めの要件を満たしているかどうかを検証します。 そのため、必要なすべてのインストール前作業を完了してから、インストールを実
行してレスポンス・ファイルを記録することをお薦めします。
2.
現在のシステムにこれまでOracleソフトウェアをインストールしたことがない場合、「oraInst.locファイルの作成」の説明に従って
oraInst.locファイルを作成します。
3.
Oracleソフトウェア所有者ユーザー(通常はoracle)が、インストーラ実行時に指定するOracleホームのパスに対して作成または書込
みの権限を持っていることを確認します。
4.
インストールの各画面で、必要な情報を指定します。
5.
インストーラの「サマリー」画面が表示されたら、次を実行します。
1.
「レスポンス・ファイルの保存」をクリックして、値をレスポンス・ファイルに保存するためのファイル名と場所を指定し
ます。
138
2.
レスポンス・ファイルを作成してインストールを継続するには、「終了」をクリックします。
レスポンス・ファイルを作成するだけでインストールを継続しない場合は、「取消」をクリックします。 インストールは
中断されますが、入力した設定はレスポンス・ファイルに記録されます。
6.
インストールを最後まで実行していない場合は、「ファイルの場所の指定」画面で指定したパスに作成されたOracleホーム・ディレク
トリを削除します。
7.
保存したレスポンス・ファイルを別のシステムで使用する前に、ファイルを編集して必要な変更を加えます。
編集する際は、ファイルに記載された説明をガイドとして使用してください。
B.4 レスポンス・ファイルを使用したインストーラの実行
これで、コマンドラインでOracle Universal Installerを起動し、作成したレスポンス・ファイルを指定してインストールを実行する準備がで
きました。 Oracle Universal Installerの実行可能ファイルrunInstallerでは、いくつかのオプションを使用できます。 すべてのオプションの
ヘルプ情報を参照するには、runInstallerコマンドで-helpオプションを指定します。次に例を示します。
$ directory_path/runInstaller -help
しばらくすると、ウィンドウ上にヘルプ情報が表示されます。
レスポンス・ファイルを使用してインストーラを実行するには、次の手順を実行します。
1.
通常のインストールと同様にインストール前の作業を実行します。
2.
ソフトウェア・インストール所有者ユーザーとしてログインします。
3.
レスポンス・ファイル・モードでインストールを実行する場合は、DISPLAY環境変数を設定します。
注意:
サイレント・モードでインストールを実行する場合は、DISPLAY環境変数を設定する必要はありません。
4.
コマンドを次のように入力して、サイレント・モードまたはレスポンス・ファイル・モードでインストーラを起動します。
$ /directory_path/runInstaller [-silent] [-noconfig] ¥
-responseFile responsefilename
注意:
レスポンス・ファイルのパスを相対パスで指定しないでください。 相対パスを指定すると、インストー
ラが失敗します。
この例の意味は次のとおりです。
❍
❍
❍
directory_pathは、インストール・メディアのパス、またはインストール・バイナリをコピーしたハード・ドライブ上の
ディレクトリのパスです。
-silentは、インストーラをサイレント・モードで実行します。
-noconfigを指定すると、インストール中にConfiguration Assistantは実行されず、ソフトウェアのみのインストールが実
行されます。
139
❍
5.
responsefilenameは、構成したインストール用レスポンス・ファイルのフルパスとファイル名です。
インストールが終了したら、rootユーザーとしてログインし、root.shスクリプトを実行します。 次に例を示します。
$ su root
password:
# /oracle_home_path/root.sh
B.5 レスポンス・ファイルを使用したNet Configuration Assistantの実行
サイレント・モードでNet Configuration Assistantを実行して、システム上でOracle Net Listenerを構成して起動し、ネーミング・メソッド
を構成し、Oracleネット・サービス名を構成できます。 Net Configuration Assistantをサイレント・モードで実行するには、レスポンス・
ファイル・テンプレートをコピーして編集する必要があります。 Oracleでは、DVD上のdatabase/responseディレクトリのresponseディレクトリ
で、netca.respという名前のレスポンス・ファイル・テンプレートを提供しています。
注意:
ソフトウェアをハード・ディスクにコピーした場合、レスポンス・ファイル・テンプレートはdatabase/response
ディレクトリに格納されています。
レスポンス・ファイルを使用してNet Configuration Assistantを実行するには、次の手順を実行します。
1.
レスポンス・ファイル・テンプレートnetca.rspを、レスポンス・ファイルのディレクトリから使用するシステムのディレクトリへコ
ピーします。
$ cp /directory_path/response/netca.rsp local_directory
この例では、directory_pathはDVDのdatabaseディレクトリのパスです。 ソフトウェアをハード・ドライブにコピーした場合は、
responseディレクトリのファイルを編集することもできます。
2.
テキスト・エディタでレスポンス・ファイルを開きます。
$ vi /local_dir/netca.rsp
3.
ファイルに記載された説明に従って編集します。
注意:
レスポンス・ファイルを正しく構成しないと、Net Configuration Assistantが失敗します。
4.
Oracleソフトウェア所有者ユーザーとしてログインし、ORACLE_HOME環境変数に正しいOracleホーム・ディレクトリを指定します。
5.
次のようなコマンドを入力して、Net Configuration Assistantをサイレント・モードで実行します。
$ $ORACLE_HOME/bin/netca /silent /responsefile /local_dir/netca.rsp
この例の意味は次のとおりです。
❍
❍
/silentオプションは、Net Configuration Assistantをサイレント・モードで実行することを意味します。
local_dirは、netca.rspレスポンス・ファイル・テンプレートのコピー先ディレクトリのフルパスです。
B.6 レスポンス・ファイルを使用したDatabase Configuration Assistantの実行
140
レスポンス・ファイル・モードまたはサイレント・モードでConfiguration Assistantを実行して、システムにインストールしたOracleソフト
ウェアを構成し起動できます。 Configuration Assistantをレスポンス・ファイル・モードまたはサイレント・モードで実行するには、レスポ
ンス・ファイル・テンプレートをコピーして編集する必要があります。
注意:
ソフトウェアをハード・ディスクにコピーした場合、レスポンス・ファイル・テンプレートは/responseディレク
トリにあります。
この項の内容は次のとおりです。
●
レスポンス・ファイル・モードでのDatabase Configuration Assistantについて
●
レスポンス・ファイル・モードまたはサイレント・モードでのDatabase Configuration Assistantの実行
B.6.1 レスポンス・ファイル・モードでのDatabase Configuration Assistantについて
Database Configuration Assistantは、レスポンス・ファイル・モードでは、レスポンス・ファイルに指定された値またはコマンドライン・オ
プションとして指定された値を使用してデータベースを作成します。 データベースを構成して起動しながら、状態メッセージとプログレス・
バーのウィンドウを表示します。 表示するウィンドウは、Enterprise EditionまたはStandard Editionのインストールで事前構成済データベー
スの作成を選択した際に表示されるウィンドウと同じです。
Database Configuration Assistantをレスポンス・ファイル・モードで実行するには、グラフィカル・ディスプレイを使用し、DISPLAY環境変数
を設定する必要があります。 実行モードをレスポンス・ファイル・モードに設定するには、-progressOnlyフラグを使用します。
インストール・メディアの/responseディレクトリに、dbca.rspという名前のレスポンス・ファイル・テンプレートが用意されています。
B.6.2 レスポンス・ファイル・モードまたはサイレント・モードでのDatabase Configuration Assistantの実行
Database Configuration Assistantをレスポンス・ファイル・モードまたはサイレント・モードで実行するには、次の手順を実行します。
1.
レスポンス・ファイル・テンプレートdbca.rspを、レスポンス・ファイルのディレクトリから使用するシステムのディレクトリへコ
ピーします。
$ cp /directory_path/response/dbca.rsp local_directory
この例では、directory_pathはDVDのdatabaseディレクトリのパスです。 ソフトウェアをハード・ドライブにコピーした場合は、
responseディレクトリのファイルを編集することもできます。
注意:
レスポンス・ファイル・テンプレートを編集するもう1つの方法として、Database Configuration
Assistantを実行する際に、コマンドライン・オプションとしてすべての必要な情報を指定してデータ
ベースを作成することもできます。 サポートされるオプションのリストの詳細を参照するには、次のコ
マンドを入力します。
$ $ORACLE_HOME/bin/dbca -help
2.
テキスト・エディタでレスポンス・ファイルを開きます。
$ vi /local_dir/dbca.rsp
3.
ファイルに記載された説明に従って、ファイルを編集します。
141
注意:
レスポンス・ファイルを正しく構成しないと、Database Configuration Assistantが失敗します。
4.
Oracleソフトウェア所有者ユーザーとしてログインし、ORACLE_HOME環境変数に正しいOracleホーム・ディレクトリを指定します。
5.
レスポンス・ファイル・モードでDatabase Configuration Assistantを実行する場合は、DISPLAY環境変数を設定してください。
6.
レスポンス・ファイルを使用してサイレント・モードまたはレスポンス・ファイル・モードでDatabase Configuration Assistantを実
行するには、次のコマンド構文を使用します。
$ORACLE_HOME/bin/dbca {-progressOnly ¦ -silent} -responseFile ¥
/local_dir/dbca.rsp
この例の意味は次のとおりです。
❍
❍
❍
-silentオプションは、Database Configuration Assistantをサイレント・モードで実行します。
-progressOnlyオプションは、Database Configuration Assistantをレスポンス・ファイル・モードで実行します。
local_dirは、dbca.rspレスポンス・ファイル・テンプレートをコピーしたディレクトリのフルパスです。
B.7 レスポンス・ファイルを使用したインストール後の構成
Oracleソフトウェアのインストール後にレスポンス・ファイルによる構成を作成して実行するには、次の項の手順を使用します。
B.7.1 インストール後の構成ファイルについて
サイレント・モードまたはレスポンス・ファイル・モードでのインストールを実行する場合は、使用するサーバーについての情報をレスポン
ス・ファイルに指定します。指定しない情報は、グラフィカル・ユーザー・インタフェースによるインストール中に手動で入力します。 ただ
し、レスポンス・ファイルには、ソフトウェアのインストール後にConfiguration Assistantから要求されるユーザー・アカウントのパスワード
は含まれていません。 Configuration Assistantは、configToolAllCommandsというスクリプトによって起動されます。 パスワード・レスポン
ス・ファイルを作成して使用すると、このスクリプトをレスポンス・ファイル・モードで実行できます。 スクリプトはこのパスワードを使用し
て、構成が完了するまで連続的に構成ツールを実行します。
クローン・インストール用にこのパスワード・ファイルを保持する場合は、セキュアな場所に保存することをお薦めします。 また、エラーを解
決するためにインストールを中断する必要がある場合も、configToolAllCommandsおよびパスワード・レスポンス・ファイルを使用して、
Configuration Assistantを実行できます。
configToolAllCommandsパスワード・レスポンス・ファイルには、次の構文オプションがあります。
●
internal_component_nameは、Configuration Assistantで構成するコンポーネントの名前です。
●
variable_nameは、構成ファイルの変数の名前です。
●
valueは、構成に使用する値です。
コマンド構文は次のとおりです。
internal_component_name|variable_name=value
次に例を示します。
oracle.assistants.asm¦S_ASMPASSWORD=welcome
142
パスワード・レスポンス・ファイルのセキュリティは、次の方法で維持することをお薦めします。
●
●
レスポンス・ファイルの権限を600に設定します。
レスポンス・ファイルの所有者をインストール所有者ユーザーにして、グループは中央インベントリ(oraInventory)グループに設定
します。
B.7.2 レスポンス・ファイルを使用したインストール後の構成の実行
configToolAllCommandsスクリプトを使用してConfiguration Assistantを実行するには、次の手順を実行します。
1.
構文filename.propertiesを使用してレスポンス・ファイルを作成します。 次に例を示します。
$ touch cfgrsp.properties
2.
テキスト・エディタでこのファイルを開き、パスワード・テンプレートを切り取って貼り付け、必要に応じて変更します。
例B-1 クラスタ用Oracle Grid Infrastructureインストールのパスワード・レスポンス・ファイル
Oracle Grid Infrastructureには、自動ストレージ管理コンフィギュレーション・アシスタント(ASMCA)のパスワードが必要です。
また、BMCカードがある場合にその機能を有効にするには、Intelligent Platform Management Interface Configuration Assistant
(IPMICA)のパスワードが必要になります。 この場合、次のレスポンス・ファイルを使用します。
oracle.assistants.asm¦S_ASMPASSWORD=password
oracle.assistants.asm¦S_ASMMONITORPASSWORD=password
oracle.crs¦S_BMCPASSWORD=password
BMCカードがない場合、またはIPMIを有効にしない場合は、S_BMCPASSWORD入力フィールドを空白のままにしておきます。
例B-2 Oracle Real Application Clustersのパスワード・レスポンス・ファイル
Oracle Databaseの構成には、Database Configuration Assistant(DBCA)で使用するSYS、SYSTEM、SYSMAN、DBSNMPのパスワードが必
要です。 S_ASMSNMPPASSWORDレスポンスは、データベースの記憶域にOracle ASMを使用している場合にのみ必要です。 また、Oracle
Enterprise Managerの構成を選択した場合は、S_HOSTUSERPASSWORDレスポンスにOracleソフトウェア・インストール所有者のパスワー
ドを指定する必要があります。
oracle.assistants.server¦S_SYSPASSWORD=password
oracle.assistants.server¦S_SYSTEMPASSWORD=password
oracle.assistants.server¦S_SYSMANPASSWORD=password
oracle.assistants.server¦S_DBSNMPPASSWORD=password
oracle.assistants.server¦S_HOSTUSERPASSWORD=password
oracle.assistants.server¦S_ASMSNMPPASSWORD=password
Oracle Enterprise ManagerまたはOracle ASMを有効にしない場合、これらのパスワード・フィールドは空白のままにします。
3.
権限を変更してファイルを保護します。 次に例を示します。
$ ls -al cfgrsp.properties
-rw------- 1 oracle oinstall 0 Apr 30 17:30 cfgrsp
4.
$ORACLE_HOME/cfgtoollogsに移動し、次の構文を使用して構成スクリプトを実行します。
configToolAllCommands RESPONSE_FILE=/path/name.properties
次に例を示します。
143
$ ./configToolAllCommands RESPONSE_FILE=/home/oracle/cfgrsp.properties
144
C 大容量メモリーを最適化する構成
この付録では、HugePagesを使用して、Linuxオペレーティング・システムのラージ・ページ表によりメモリーを最適化するための構成情報につ
いて説明します。 内容は次のとおりです。
●
HugePagesの概要
●
HugePages構成に対する制限
C.1 HugePagesの概要
HugePagesを構成することを選択できます。 いくつかの用途では、HugePagesによって高度なパフォーマンスが得られます。 ただし、この機能
は高度な構成オプションです。 Oracle RACでは必須ではありません。
この項では、HugePagesの概要について説明します。 RPMや構成情報は扱いません。 構成に必要な作業は、システムのカーネル・ディストリ
ビューションとハードウェアによって異なります。 クラスタ・ノードでHugePagesを使用するように構成する場合の詳細は、ご使用のディスト
リビューションのドキュメントおよびOracle Technical Network(OTN)とMy Oracle Supportを参照してください。
C.1.1 HugePagesの機能
HugePagesは、リリース2.6でLinuxカーネルに統合された機能です。 この機能は、より大きなページを扱うための手段であり、大容量のメモ
リーで動作する場合に有効です。 32-bitおよび64-bitの両方の構成で使用できます。 HugePagesのサイズは、カーネル・バージョンとハード
ウェア・アーキテクチャに応じて、2MBから256MBになります。 Oracle Databaseでは、HugePagesを使用することにより、オペレーティング・シ
ステムでのページの状態のメンテナンス作業が削減され、TLB(アドレス変換バッファ)ヒット率が増加します。
HugePagesを使用しない場合、オペレーティング・システムではページごとに4KBのメモリーが保持され、メモリーがSGAに割り当てられると、そ
のページのライフサイクル(使用済、空き、プロセスにマップ済など)がオペレーティング・システム・カーネルによって最新のものに更新さ
れる必要があります。
HugePagesを使用した場合、各ページ表のエントリは2MBから256MBのページを指しているため、オペレーティング・システムのページ表(仮想メ
モリーから物理メモリーへのマッピング)は小さくなります。 また、カーネルでライフサイクルを監視する必要があるページの数が削減されま
す。
たとえば、64-bitのハードウェアでHugePagesを使用する場合、256MBのメモリーをマップするには、1ページの表エントリ(PTE)が必要です。
HugePagesを使用しないで256MBのメモリーをマップするには、256MB×1024KB/4KB=65536PTEが必要です。
C.2 HugePages構成に対する制限
HugePagesを使用するには、Grubを構成して、システムの起動時にHugePagesにメモリーを割り当てる必要があります。 ページング領域が予約さ
れると、必要に応じてHugePagesを使用できます。 ただし、システムの起動時にHugePagesに必要な領域をメモリー内に確保できないときは、
HugePagesの割当ては失敗する可能性があります。
システム管理者が使用可能なページ数またはプール・サイズを変更してHugePages構成を変更しないかぎり、システムの起動後にHugePagesを割
当てまたは解放することはできません。
145
D クラスタ用Oracle Grid Infrastructureのインストールの概要
この付録では、インストール前に実行を要求される作業の理由、およびその他のインストールの概要について説明します。
この付録の内容は次のとおりです。
●
インストール前の構成の理解
●
記憶域の構成の理解
●
アウトオブプレース・アップグレードの理解
D.1 インストール前の構成の理解
この項では、クラスタ用グリッド・インフラストラクチャのインストール前に必要な作業の概要を確認します。 この項の内容は次のとおりで
す。
●
Oracleグループおよびユーザーの理解
●
Oracleベース・ディレクトリのパスの理解
●
ネットワーク・アドレスの理解
●
ネットワークの時刻要件の理解
D.1.1 Oracleグループおよびユーザーの理解
この項の内容は次のとおりです。
●
Oracle Inventoryグループの理解
●
Oracle Inventoryディレクトリの理解
D.1.1.1 Oracle Inventoryグループの理解
メンバーにOracle Inventory(oraInventory)ディレクトリへの書込み権が付与されたグループを所有する必要があります。このディレクトリ
は、サーバー上のすべてのOracleソフトウェア・インストールの中央インベントリ・レコードです。 このグループのメンバーはOracle中央イン
ベントリ(oraInventory)ディレクトリに対する書込み権限を所有します。また、様々なOracle Clusterwareリソース、OCRキー、DBAが書込み
権限を必要とするOracle Clusterwareホーム内のディレクトリに対する権限やその他の必要な権限が付与されます。 このグループのデフォルト
はoinstallです。 Oracle Inventoryグループは、Oracleソフトウェアのインストール所有者のプライマリ・グループである必要があります。
oraInventoryディレクトリには、次のものが含まれています。
●
●
●
システム上のOracleホーム・ディレクトリ(Oracle Grid InfrastructureおよびOracle Database)のレジストリ。
Oracleソフトウェアのインストール時のインストール・ログおよびトレース・ファイル。 これらのファイルは、将来参照するために
それぞれのOracleホームにもコピーされます。
Oracleインストールに関するその他のメタデータ・インベントリ情報は、個々のOracleホーム・インベントリ・ディレクトリに格納さ
れており、中央インベントリとは分離されています。
146
1つのグループをアクセス制御グループとして構成し、Oracle Inventory、データベース管理者(OSDBA)、およびOracleソフトウェアがオペ
レーティング・システムの認証に使用する他のすべてのアクセス制御グループに適用できます。 ただし、その場合は、そのグループを、管理権
限が付与されたすべてのユーザーのプライマリ・グループにする必要があります。
注意:
Oracleソフトウェアがすでにシステムにインストールされている場合は、既存のOracle Inventoryグループが、
Oracle Grid Infrastructureのインストールに使用するオペレーティング・システム・ユーザー(oracleまたは
grid)のプライマリ・グループである必要があります。 既存のOracle Inventoryグループを確認するには、
「Oracle InventoryおよびOracle Inventoryグループの存在の確認」を参照してください。
D.1.1.2 Oracle Inventoryディレクトリの理解
Oracle Inventoryディレクトリ(oraInventory)には、サーバーにインストールされたすべてのOracleソフトウェア用の中央インベントリがあ
ります。
初めてOracleソフトウェアをシステムにインストールするときに、Optimal Flexible Architecture(OFA)準拠のパスがu[01-09]/app形式(/
u01/appなど)で作成されているか、またインストールを実行しているユーザーがそのパスへの書込み権限を所有しているかどうかが、インス
トーラで確認されます。 これらがあてはまる場合は、インストーラがパス/u[01-09]/app/oraInventoryにOracle Inventoryディレクトリを作成
します。 次に例を示します。
/u01/app/oraInventory
インストール時の指示に従ってOracleベースのパスを指定するか、Oracle Grid Infrastructureのインストールを実行しているユーザーに対し
て環境変数$ORACLE_BASEが設定されている場合は、OUIによってOracle Inventoryディレクトリがパス$ORACLE_BASE/../oraInventoryに作成さ
れます。 たとえば、$ORACLE_BASEが/opt/oracle/11に設定されている場合は、パス/opt/oracle/oraInventory(Oracleベースの1つ上のディレ
クトリ・レベル)にOracle Inventoryディレクトリが作成されます。
OFA準拠のパスが作成されておらず、$ORACLE_BASEも設定されていない場合、Oracle Inventoryディレクトリはインストールを実行している
ユーザーのホーム・ディレクトリに格納されます。 次に例を示します。
/home/oracle/oraInventory
これにより、複数のOracleソフトウェア所有者が存在する後続のインストール時に権限エラーが発生するため、OFA準拠のインストール・パスを
作成するか、または環境変数$ORACLE_BASEを設定することをお薦めします。
新しくインストールする場合は、OUIでOracle Inventoryディレクトリ(oraInventory)を作成することをお薦めします。 デフォルトでは、
Oracleソフトウェア所有者が所有する、OFA構造に準拠したOracleパス(/u01/appなど)を作成すると、Oracle Inventoryはパスu01/app/
oraInventoryに作成されます。このとき、すべてのOracleインストール所有者によるこの中央インベントリ・ディレクトリへの書込みを許可す
る適切な権限が使用されます。
デフォルトでは、Oracle InventoryディレクトリはOracleベース・ディレクトリ下にインストールされません。 これは、すべてのOracleソフト
ウェア・インストールが同じOracle Inventoryを共有し、1つしかないOracle Inventoryをすべてのユーザーが使用するためです。一方、Oracle
ベースは各ユーザーに個別に存在します。
D.1.2 Oracleベース・ディレクトリのパスの理解
この項では、Oracleベース・ディレクトリの準備について説明します。
D.1.2.1 Oracleベース・ディレクトリの概要
インストール時に、Oracleベースの場所を指定するように求められます。Oracleベースは、インストールを実行するユーザーが所有します。 既
存のOracleホームが含まれるディレクトリを選択するか、またはOracleベース・ディレクトリの構造を持っていない別のディレクトリを選択で
きます。
Oracleベース・ディレクトリ・パスを使用すると、Oracleインストールの構造が簡略化され、複数のデータベース・インストールでOptimal
Flexible Architecture(OFA)構成を保持しやすくなります。
147
D.1.2.2 Oracleベース・ディレクトリとGrid Infrastructureディレクトリの理解
Grid Infrastructure(Oracle ClusterwareおよびOracle ASM)のインストールとOracle Databaseのインストールに同じソフトウェア所有者を
使用しない場合でも、Oracle Grid Infrastructureのインストールでroot.shスクリプトを実行することによって、クラスタウェア・バイナリが
配置されるホーム・ディレクトリの所有権がrootに変更されることに注意してください。また、ルート・レベル(/)までのすべての祖先ディレ
クトリもrootに変更されます。 このため、クラスタ用Oracle Grid Infrastructureのホームは、他のOracleソフトウェアと同じ場所に置くこと
ができません。
ただし、スタンドアロン・データベース用のOracle Grid Infrastructure(Oracle Restart)は、他のOracleソフトウェアと同じ場所に配置で
きます。
参照:
Oracle Restartの詳細は、ご使用のプラットフォームに対応するOracle Databaseのインストレーション・ガイド
を参照してください。
D.1.3 ネットワーク・アドレスの理解
インストール時に、OUIがクラスタ・ノードで検出するネットワーク・インタフェースごとに計画された使用方法を指定するように求められま
す。 各インタフェースを、パブリック・インタフェースまたはプライベート・インタフェース、あるいはOracle Clusterwareで使用しないイン
タフェースとして指定します。 パブリックIPアドレスと仮想IPアドレスは、パブリック・インタフェース上に構成されます。 プライベート・
アドレスはプライベート・インタフェース上に構成されます。
各アドレス・タイプの詳細は、次の項を参照してください。
●
パブリックIPアドレスについて
●
プライベートIPアドレスについて
●
仮想IPアドレスについて
●
グリッド・ネーミング・サービス(GNS)の仮想IPアドレスについて
●
SCANについて
D.1.3.1 パブリックIPアドレスについて
パブリックIPアドレスは、DHCPを使用して動的に割り当てられるか、DNSまたはホスト・ファイルで静的に定義されます。 このアドレスでは、
パブリック・インタフェース(クライアントからアクセス可能なインタフェース)が使用されます。
D.1.3.2 プライベートIPアドレスについて
Oracle Clusterwareは、プライベートとマークされたインタフェースを使用してノード間通信を行います。 各クラスタ・ノードは、インストー
ル時にプライベート・インタフェースとして指定されたインタフェースを持つ必要があります。 プライベート・インタフェースはそのインタ
フェース用に構成されたアドレスを持つ必要がありますが、それ以上の構成は必要ありません。 Oracle Clusterwareは、プライベートとマーク
されたインタフェースを、クラスタ・インターコネクトとして使用します。 プライベートとして指定するインタフェースはいずれも、クラスタ
のすべてのノードに接続するサブネット上に存在しなければなりません。 Oracle Clusterwareは、プライベート・インタフェース用に指定され
た、すべてのインタフェースを使用します。
プライベート・インターコネクトの場合は、ノード間のキャッシュ・フュージョンおよびその他のトラフィックのため、物理的に別のプライ
ベート・ネットワークを使用することをお薦めします。 DNSを使用してアドレスを構成する場合は、プライベートIPアドレスがクラスタ・ノー
ドからのみ到達可能であることを確認する必要があります。
インストール後、CLUSTER_INTERCONNECTS初期化パラメータを使用してOracle RACのインターコネクトを変更する場合は、パブリックIPアド
レスで使用されていないサブネット上またはoifcfgでパブリック・サブネットとしてマークされていないサブネット上で、パラメータをプライ
ベートIPアドレスに変更する必要があります。 パブリック・サブネットとして指定したサブネットを使用するインタフェースにインターコネク
トを変更することはできません。
148
参照:
結合された複数のインタフェースの設定および使用の詳細は、『Oracle Clusterware管理およびデプロイメン
ト・ガイド』を参照してください。
プライベート・ネットワークIPアドレスを使用したネットワークではファイアウォールを使用しないでください。プライベート・ネットワーク
IPアドレスによってインターコネクト・トラフィックがブロックされる可能性があるためです。
D.1.3.3 仮想IPアドレスについて
仮想IP(VIP)アドレスは、GNSまたはDNSに登録されています。 次の要件を満たすVIPのアドレスを選択します。
●
IPアドレスとホスト名は、現在未使用である(DNSに登録できるが、pingコマンドでアクセスできない)
●
VIPはパブリック・インタフェースと同じサブネット上にある
D.1.3.4 グリッド・ネーミング・サービス(GNS)の仮想IPアドレスについて
GNS仮想IPアドレスは、DNSで構成される静的なIPアドレスです。 DNSはGNS仮想IPアドレスに問合せを委任し、GNSデーモンはそのアドレスで、
受信した名前解決要求に応答します。
GNSは、Oracle Clusterwareで提供されるマルチキャスト・ドメイン・ネーム・サービス(mDNS)をサブドメイン内で使用し、クラスタにノード
が追加または削除されると、ホスト名およびIPアドレスを動的にマップできるようにします。DNSで新たにホスト構成を行う必要はありません。
GNSを有効にするには、クラスタに割り当てられたサブドメインのIPアドレス(grid.example.comなど)をネットワーク管理者に教えてもらい、
そのサブドメインへのDNS要求を、クラスタのGNS仮想IPアドレスに委任してもらう必要があります。GNSはそのアドレスで機能します。 一連の
IPアドレスはDHCP経由でクラスタに提供されます。これらのアドレスは、クラスタのパブリック・ネットワーク上で使用できる状態でなくては
なりません。
参照:
グリッド・ネーミング・サービスの詳細は、『Oracle Clusterware管理およびデプロイメント・ガイド』を参照
してください。
D.1.3.5 SCANについて
Oracle Database 11gリリース2のクライアントは、SCANを使用してデータベースに接続します。 SCANとそれに関連付けられたIPアドレスは、ク
ラスタを構成するノードとは無関係に、クライアントが接続に使用する安定した名前を提供します。 SCANアドレス、仮想IPアドレス、およびパ
ブリックIPアドレスはすべて、同じサブネット上に存在する必要があります。
SCANは、node1-vipのような、仮想IPアドレスに使用される名前に類似した仮想IP名です。 ただし、仮想IPと異なり、SCANは個別のノードでは
なくクラスタ全体と関連付けられており、1つではなく複数のIPアドレスと関連付けられています。
SCANは、パブリック・クライアント接続を処理するクラスタ内の複数のリスナーを反映し、複数のIPアドレスに解決可能であることで機能しま
す。 クライアントから要求が送信されると、SCAN IPアドレスおよびSCANポート上でリスニングしているSCANリスナーがクライアントに対応し
ます。 クラスタ上のすべてのサービスがSCANリスナーに登録されているため、SCANリスナーは、現在サービスを提供している最も負荷が低い
ノードのローカル・リスナー・アドレスを使用して応答します。 最後に、サービスが提供されているノード上のリスナーを通じて、クライアン
トがサービスへの接続を確立します。 これらすべての動作はクライアントに対して透過的に行われ、クライアントでの明示的な構成は必要あり
ません。
インストール中、SCAN IPアドレス用のノードにリスナーが作成されます。 Oracle Net Servicesは、サービスを提供している最も負荷が低いイ
ンスタンスに、アプリケーションの要求をルーティングします。 SCANアドレスはクラスタ内のノード・アドレスではなくクラスタに解決される
ため、SCANアドレス構成に影響を与えることなく、クラスタでノードを追加または削除できます。
SCANは、クラスタ内のグリッド・ネーミング・サービス(GNS)、またはドメイン・ネーム・サービス(DNS)解決のいずれかで解決できるよう
に構成する必要があります。 高い可用性とスケーラビリティを実現するために、3つのIPアドレスに解決されるようにSCAN名を構成することを
お薦めします。 SCANは少なくとも1つのアドレスに解決される必要があります。
149
GNSドメインを指定する場合、SCAN名のデフォルトはclustername-scan.GNS_domainです。 指定しない場合のデフォルトはclustername-scan.
current_domainです。 たとえば、Oracle Grid Infrastructureインストールをサーバーnode1から起動し、クラスタ名がmycluster、GNSドメイ
ンがgrid.example.comの場合、SCAN名はmycluster-scan.grid.example.comです。
Oracle Database 11g リリース2より前のOracle DatabaseリリースのIPアドレスを使用するように構成されたクライアントは、既存の接続アド
レスを引き続き使用できるため、SCANを使用する必要はありません。 Oracle Clusterware 11g リリース2(11.2)にアップグレードするとSCAN
が有効になり、Oracle Database 11g リリース2以降のデータベースへの接続にSCANが必要になります。 以前のバージョンのOracle Databaseを
アップグレードするとSCANリスナーに登録されるため、クライアントがSCANを使用してそのデータベースに接続できるようになります。 データ
ベースはinit.oraファイルのリモート・リスナー・パラメータを通じてSCANリスナーに登録されます。
SCANはほとんどのデプロイメントでオプションです。 ただし、Oracle Database 11gリリース2以上でサーバー・プールを使用しているポリシー
管理データベースを使用しているクライアントは、SCANを使用してデータベースにアクセスする必要があります。 ポリシー型管理のデータベー
スは異なるサーバーで異なる時刻に実行されることがあるため、これは必須です。そのため、あるポリシー型管理のデータベースの特定ノード
の仮想IPアドレスへの接続はできません。
D.1.4 ネットワークの時刻要件の理解
Oracle Clusterware 11g リリース2(11.2)には、クラスタ時刻同期化サービス(CTSS)が自動的に構成されます。 このサービスでは、デプロ
イしたクラスタのタイプに最適な同期方法で、すべてのクラスタ・ノードが自動的に同期されます。 NTPなどの既存のクラスタ同期サービスが
ある場合、このサービスはオブザーバ・モードで開始されます。 既存のサービスがない場合、このサービスはアクティブ・モードで開始され、
クラスタ・ノード間の時刻の同期を確実にします。 CTSSで互換性の問題が発生することはありません。
CTSSモジュールはOracle Grid Infrastructureのインストールの一環としてインストールされます。 CTSSデーモンはOHASデーモン(ohasd)に
よって起動されるため、コマンドライン・インタフェースは必要ありません。
D.2 記憶域の構成の理解
自動ストレージ管理クラスタ・ファイル・システム(ACFS)の理解
既存のOracle ASMインスタンスの移行について
スタンドアロンのOracle ASMインストール環境からクラスタ化されたOracle ASMインストール環境への変換について
D.2.1 自動ストレージ管理クラスタ・ファイル・システム(ACFS)の理解
自動ストレージ管理は、拡張されて汎用ファイル・システムであるOracle自動ストレージ管理クラスタ・ファイル・システム(Oracle ACFS)を
含むようになりました。 Oracle ACFSは、複数のプラットフォームに対応するスケーラブルな新しいファイル・システムとしてストレージを管
理します。このテクノロジにより、自動ストレージ管理(Oracle ASM)機能は、Oracle Databaseの外で保持されているカスタマ・ファイルをサ
ポートするように拡張されます。 Oracle ACFSがサポートするファイルには、アプリケーション・バイナリ、アプリケーション・レポートなど
があります。 他にも、ビデオ、オーディオ、テキスト、イメージ、設計図、その他の汎用アプリケーションのファイル・データがサポートされ
ます。
D.2.2 既存のOracle ASMインスタンスの移行について
以前のリリースのOracle ASMが、サーバー上または既存のOracle Clusterwareインストール環境内にインストールされている場合は、パス
Grid_home/binにある自動ストレージ管理コンフィギュレーション・アシスタント(ASMCA)を使用して、既存のOracle ASMインスタンスを
Oracle ASM 11gリリース2(11.2)にアップグレードし、その後で障害グループ、ASMボリュームおよび自動ストレージ管理クラスタ・ファイ
ル・システム(ACFS)を構成できます。
注意:
既存のOracle ASMインスタンスのアップグレードは、そのノード上のすべてのデータベース・インスタンスおよ
びアプリケーションを停止してから実行する必要があります。
インストール時に、Oracle ASMを使用することを選択したときに、以前のOracle ASMバージョンが別のASMホームにインストールされていること
がASMCAで検出された場合は、Oracle ASM 11gリリース2(11.2)のバイナリをインストールした後に、ASMCAを起動して既存のOracle ASMインス
タンスをアップグレードできます。 次に、ASMボリュームを作成し、アップグレードしたOracle ASMを使用してACFSを作成することで、ACFSの
デプロイメントを構成できます。
150
Oracle ClusterwareまたはOracle RACの既存のインストール環境で、すべてのノード上のOracle ASMインスタンスの旧バージョンがOracle ASM
11gリリース1の場合は、Oracle ASMインスタンスのローリング・アップグレードを実行できます。 Oracle RACのインストール環境で、旧バー
ジョンのOracle ASMインスタンスがOracle ASM 11gリリース1よりも前のリリースの場合は、ローリング・アップグレードを実行できません。
Oracle ASMは、すべてのノードで11gリリース2(11.2)にアップグレードされます。
D.2.3 スタンドアロンのOracle ASMインストール環境からクラスタ化されたOracle ASMインストール環境への変換について
クラスタのメンバー・ノードの中に、既存のスタンドアロンのOracle ASMがインストールされているノードが1つ以上ある場合でも、OUIは、ク
ラスタ用のOracle Grid Infrastructureのインストールを開始します。
Oracle Clusterwareファイル(OCRおよび投票ディスク)をOracle ASM上に配置すると、クラスタウェアのインストール終了時にASMCAが起動
し、ローカル・ノード上のOracle ASMインスタンスを移行およびアップグレードするためのプロンプトが表示され、Oracle ASM 11gリリース2
(11.2)環境が作成されます。
リモート・ノードでスタンドアロンのOracle ASMインスタンスが実行されていることをASMCAが認識すると、そのOracle ASMインスタンスと、そ
のOracle ASMインスタンスを使用しているデータベース・インスタンスを停止するように求められます。 次に、ASMCAは、クラスタ化された
Oracle ASMインスタンスをクラスタ内のすべてのノードに展開します。 ただし、クラスタ対応のOracle ASMインスタンスのディスク・グループ
名は、既存のスタンドアロンのディスク・グループ名と異なっている必要があります。
参照:
『Oracle Databaseストレージ管理者ガイド』
D.3 アウトオブプレース・アップグレードの理解
アウトオブプレース・アップグレードでは、インストーラは新しいバージョンを別のOracle Clusterwareホームにインストールします。
Oracle Clusterwareの新旧バージョンが各クラスタ・メンバー・ノードに存在することになりますが、アクティブになるバージョンは1つのみで
す。
ローリング・アップグレードは、ソフトウェアの新バージョンへのアップグレード中、停止時間をなくし、可用性の継続を保証します。
各ノード上に別々のOracle Clusterwareホームがある場合、すべてのノードでアウトオブプレース・アップグレードを行うか、またはアウトオ
ブプレース・ローリング・アップグレードを行うことができます。そうすることで、あるノードでは旧バージョンのOracle Clusterwareホーム
からOracle Clusterwareを実行し、別のノードでは新バージョンのOracle ClusterwareホームからOracle Clusterwareを実行することが可能で
す。
Oracle Clusterware 11gリリース2のインプレース・アップグレードはサポートされていません。
参照:
ローリング・アップグレードの実行手順については、付録F「Oracle Grid Infrastructure 11gリリース2への
アップグレード方法」を参照してください。
151
E インストールの前提条件の作業を手動で行う方法
この付録では、通常Cluster Verification Utility(CVU)およびインストーラ(OUI)がインストール時に完了する構成作業を、手動で行う方
法について説明します。 この付録は、修正スクリプトを使用できないときに参考にしてください。
この付録の内容は次のとおりです。
●
すべてのクラスタ・ノードでの手動によるSSHの構成
●
カーネル・パラメータの構成
●
手動によるOCFS2のバージョンの確認
E.1 すべてのクラスタ・ノードでの手動によるSSHの構成
パスワードなしのSSH構成は、必須のインストール要件です。 SSHは、インストール時にクラスタ・メンバー・ノードの構成に使用され、またイ
ンストール後にはコンフィギュレーション・アシスタント、Oracle Enterprise Manager、Opatchおよび他の機能によって使用されます。
OUIを使用したパスワードなしのSSHの自動構成によって、クラスタのすべてのノード上にRSA暗号化キーが作成されます。 システム上の制約に
より、DSA鍵を使用するなどして手動でSSHを設定することが求められる場合は、この手順を参考にして、パスワードなしのSSHを設定してくださ
い。
この後の例では、Oracleソフトウェア所有者をgridユーザーとしています。
SSHが使用できない場合は、OUIはかわりにrshとrcpの使用を試行します。 ただし、ほとんどのLinux Systemsでは、デフォルトではこれらの
サービスを使用できません。
注意:
LinuxディストリビューションでサポートされているバージョンのSSHはOpenSSHです。
この項の内容は次のとおりです。
●
システム上の既存のSSH構成の確認
●
クラスタ・ノードでのSSHの構成
●
クラスタ・ノードでのSSHユーザー等価関係の有効化
E.1.1 システム上の既存のSSH構成の確認
次のコマンドを入力して、SSHが実行されているかどうかを確認します。
$ pgrep sshd
SSHが実行されている場合、このコマンドの結果は1つ以上のプロセスID番号になります。 インストール・ソフトウェア所有者(grid、oracle)
のホーム・ディレクトリで、コマンドls -alを使用して、.sshディレクトリを所有し、そのディレクトリへの書込みが可能であるのはそのユーザー
のみであることを確認します。
SSHプロトコルには、RSA鍵またはDSA鍵のいずれかが必要です。 RSAはSSH 1.5プロトコルで使用され、DSAはSSH 2.0プロトコルのデフォルトで
す。 OpenSSHの場合は、RSAまたはDSAのいずれかを使用できます。 この後の説明ではSSH1を想定しています。 SSH2をインストールしており、
SSH1を使用できない場合は、SSHディストリビューションのドキュメントを参照して、SSH1互換を構成するか、またはDSAを使用してSSH2を構成
152
します。
E.1.2 クラスタ・ノードでのSSHの構成
SSHを構成するには、最初に各クラスタ・ノードにRSA鍵およびDSA鍵を作成してから、すべてのクラスタ・ノード・メンバーで生成されたすべて
の鍵を各ノードで同じ認証鍵ファイルにコピーする必要があります。 SSHファイルを読み取ることができのは、rootおよびソフトウェア・イン
ストール・ユーザー(oracle、grid)のみである必要があります。これは、SSHが他のユーザーによってアクセス可能であると、SSHは秘密鍵を無
視するためです。 この後の例では、DSA鍵が使用されています。
インストールに使用するOracleソフトウェアのインストール所有者ごとにSSHを構成する必要があります。
SSHを構成するには、次の手順を実行します。
E.1.2.1 各ノードでのSSHディレクトリおよびSSH鍵の作成
各ノードに対し、次の手順を実行します。
1.
2.
ソフトウェア所有者(この例ではgridユーザー)としてログインします。
コマンドidおよびid gridを入力して、gridとしてログインしていること、およびユーザーIDがgridユーザーに割り当てたユーザーIDと
一致していることを確認します。 Oracleユーザー・グループおよびユーザーと、使用しているユーザー端末ウィンドウ・プロセスの
グループIDおよびユーザーIDが同じであることを確認します。 次に例を示します。
$ id
uid=502(grid) gid=501(oinstall) groups=501(oinstall),502(grid,asmadmin,asmdba)
$ id grid
uid=502(grid) gid=501(oinstall) groups=501(oinstall),502(grid,asmadmin,asmdba)
3.
必要に応じて、gridユーザーのホーム・ディレクトリに.sshディレクトリを作成して適切な権限を設定し、読取り/書込み権限を持って
いるのはoracleユーザーのみであることを確認します。
$ mkdir /.ssh
$ chmod 700 /.ssh
注意:
権限が700に設定されていないと、SSH構成は失敗します。
4.
次のコマンドを入力します。
$ /usr/bin/ssh-keygen -t dsa
プロンプトで、鍵ファイルには、デフォルトの位置を使用します([Enter]を押します)。
注意:
パス・フレーズを持つSSHは、Oracle Clusterware 11gリリース2以上のリリースではサポートされませ
ん。
このコマンドによって、DSA公開鍵が /.ssh/id_dsa.pubファイルに、秘密鍵が /.ssh/id_dsaファイルに書き込まれます。
秘密鍵は、Oracleソフトウェア・インストールの実行を許可されていない他のユーザーには配布しないでください。
5.
DSA鍵を使用して、クラスタ・メンバーを作成する各ノードで手順1から手順4を実行します。
E.1.2.2 共通のauthorized_keysファイルへのすべての鍵の追加
153
次の手順を実行します。
1.
ローカル・ノードで、Oracle Grid Infrastructure所有者のホーム・ディレクトリ(通常、gridまたはoracle)にある.sshディレクト
リに移動します。
次に、次のコマンドを使用してDSA鍵をauthorized_keysファイルに追加します。
$ cat id_dsa.pub >> authorized_keys
$ ls
.sshディレクトリに、作成したid_rsa.pub鍵とauthorized_keysファイルが表示されるはずです。
2.
ローカル・ノードで、SCP(セキュア・コピー)またはSFTP(セキュアFTP)を使用して、authorized_keysファイルをリモート・ノー
ドのoracleユーザーの.sshディレクトリにコピーします。 次の例では、node2というノードでSCPを使用しています。Oracle Grid
Infrastructureの所有者はgridです。gridユーザーのパスは/home/gridです。
[grid@node1 .ssh]$ scp authorized_keys node2:/home/grid/.ssh/
DSA鍵を受け入れるように求められます。 Yesと入力して、コピー先のノードがknown_hostsファイルに追加されていることを確認し
ます。
プロンプトに従って、gridユーザーのパスワードを入力します。パスワードは、クラスタ内のすべてのノードで同じにする必要があり
ます。 authorized_keysファイルがリモート・ノードにコピーされます。
出力結果は、次のようになります。xxxは有効なIPアドレスの一部を示しています。
[grid@node1 .ssh]$ scp authorized_keys node2:/home/grid/.ssh/
The authenticity of host 'node2 (xxx.xxx.173.152) can't be established.
DSA key fingerprint is 7e:60:60:ae:40:40:d1:a6:f7:4e:zz:me:a7:48:ae:f6:7e.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'node1,xxx.xxx.173.152' (dsa) to the list
of known hosts
grid@node2's password:
authorized_keys
100%
828
7.5MB/s 00:00
3.
SSHを使用して、authorized_keysファイルをコピーしたノードにログインします。 .sshディレクトリに移動し、catコマンドを使用し
て2つ目のノードのDSA鍵をauthorized_keysファイルに追加します。このとき、パスワードを求められたら[Enter]をクリックすること
で、パスワードなしのSSHが設定されます。
[grid@node1 .ssh]$ ssh node2
[grid@node2 grid]$ cd .ssh
[grid@node2 ssh]$ cat id_dsa.pub >> authorized_keys
各ノードからクラスタ内の他の各メンバー・ノードに対して手順2および3を繰り返します。
クラスタ・ノード・メンバーにする最後のノードのauthorized_keysファイルに各クラスタ・ノード・メンバーから鍵を追加した後、
scpを使用して、すべてのノードの鍵を含むauthorized_keysファイルを各クラスタ・ノード・メンバーに再度コピーし、他のノードの
既存のバージョンを上書きします。
authorized_keysファイルにすべてのノードが含まれていることを確認するには、more authorized_keysコマンドを入力して、各メン
バー・ノードのDSA鍵が存在するかどうかを確認します。 ファイルには、鍵のタイプ(ssh-dsa)、鍵、ユーザーおよびサーバーの順
で示されます。 次に例を示します。
ssh-dsa AAAABBBB . . . = grid@node1
154
注意:
各ノードのgridユーザーの/.ssh/authorized_keysファイルには、すべてのクラスタ・ノードで生成した/.
ssh/id_dsa.pubファイルのすべての内容が含まれている必要があります。
E.1.3 クラスタ・ノードでのSSHユーザー等価関係の有効化
すべての鍵が含まれているauthorized_keysファイルをクラスタ内の各ノードにコピーしたら、示されている順に次の手順を実行します。 この
例では、Oracle Grid Infrastructureソフトウェア所有者の名前はgridです。
1.
OUIを実行するシステムにgridユーザーとしてログインします。
2.
次のコマンド構文を使用して、ローカル・ノードから各ノードにSSHを実行します(ローカル・ノードからローカル・ノード自体への
SSHの実行、各ノードから他の各ノードへのSSHの実行を含みます)。hostname1やhostname2などは、クラスタ内のノードのパブ
リック・ホスト名(別名および完全修飾されたドメイン名)です。
[grid@nodename]$ ssh hostname1 date
[grid@nodename]$ ssh hostname2 date
.
.
.
次に例を示します。
[grid@node1 grid]$ ssh node1 date
The authenticity of host 'node1 (xxx.xxx.100.101)' can't be established.
DSA key fingerprint is 7z:60:60:zz:48:48:z1:a0:f7:4e.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'node1,xxx.xxx.100.101' (DSA) to the list of
known hosts.
Mon Dec 4 11:08:13 PST 2006
[grid@node1 grid]$ ssh node1.example.com date
The authenticity of host 'node1.example.com (xxx.xxx.100.101)' can't be
established.
DSA key fingerprint is 7z:60:60:zz:48:48:z1:a0:f7:4e.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'node1.example.com,xxx.xxx.100.101' (DSA) to the
list of known hosts.
Mon Dec 4 11:08:13 PST 2006
[grid@node1 grid]$ ssh node2 date
Mon Dec 4 11:08:35 PST 2006
.
.
.
この処理の終了時に、各メンバー・ノードのパブリック・ホスト名を、他のすべてのクラスタ・ノードのknown_hostsファイルに登
録する必要があります。
リモート・クライアントを使用してローカル・ノードに接続しているときに、xauthデータがなく、X11転送に偽の認証データを使用す
ることを示す警告メッセージが表示された場合は、認証鍵ファイルは適切に構成されているが、SSH構成でX11転送が有効になっている
ことを示しています。 この問題を解決するには、「表示およびX11転送の構成の設定」に進みます。
3.
各クラスタ・ノード・メンバーに対して手順2を繰り返します。
SSHが適切に構成されていれば、パスワードを求めるプロンプトは表示されることなくsshやscpコマンドを使用できます。 次に例を示します。
[grid@node1 ]$ ssh node2 date
Mon Feb 26 23:34:42 UTC 2009
[grid@node1 ]$ ssh node1 date
Mon Feb 26 23:34:48 UTC 2009
パスワードを求めるノードがある場合、そのノードの /.ssh/authorized_keysファイルに適切な公開鍵が含まれていること、および同じグルー
155
プ・メンバーシップおよびIDを持つOracleソフトウェア所有者が作成されていることを確認します。
E.2 カーネル・パラメータの構成
この項の内容は次のとおりです。
●
インストールのための最小パラメータ設定
●
SUSE Linux用の追加のパラメータおよびカーネルの設定
●
手動によるOCFS2のバージョンの確認
注意:
次の項には、カーネル・パラメータおよびシェル制限の推奨値のみを示します。 本番データベース・システムで
は、これらの値を調整してシステムのパフォーマンスを最適化することをお薦めします。 カーネル・パラメータ
の調整については、ご使用のオペレーティング・システムのマニュアルを参照してください。
E.2.1 インストールのための最小パラメータ設定
インストール時、またはフラグ-fixupを使用したCluster Verification Utility(cluvfy)の実行時、修正スクリプトが生成されます。 このス
クリプトは、必要なカーネル・パッケージを必要に応じて最小値に更新します。
修正スクリプトを使用できない場合は、次の表を参照して手動で値を設定します。
パラメータ
値
ファイル
semmsl semmns semopm semmni
250 32000 100 128
/proc/sys/kernel/sem
shmmax
4GBから1バイトを引いたサイズ、または物理メモリーの半分のサ
イズ(バイト)のいずれか小さい方
/proc/sys/kernel/shmmax
デフォルト:
536870912
shmmni
4096
/proc/sys/kernel/shmmni
shmall
2097152
/proc/sys/kernel/shmall
file-max
6815744
/proc/sys/fs/file-max
ip_local_port_range
最小: 9000
/proc/sys/net/ipv4/ip_local_port_range
最大: 65500
rmem_default
262144
/proc/sys/net/core/rmem_default
rmem_max
4194304
/proc/sys/net/core/rmem_max
wmem_default
262144
/proc/sys/net/core/wmem_default
wmem_max
1048576
/proc/sys/net/core/wmem_max
aio-max-nr
1048576
/proc/sys/fs/aio-max-nr
156
注意:
パラメータに対する現行の値がこの表の値より大きい場合は、修正スクリプトはパラメータの値を変更しませ
ん。
E.2.2 SUSE Linux用の追加のパラメータおよびカーネルの設定
SUSEシステムの場合にのみ、必要に応じて次の手順を実行します。
1.
次のコマンドを入力して、システムの再起動時に/etc/sysctl.confファイルが読み込まれるようにします。
# /sbin/chkconfig boot.sysctl on
2.
SUSE 10 Systemsの場合にのみ、テキスト・エディタを使用して、/etc/boot.sysctlパラメータのRUN_PARALLELフラグをyesからnoに
変更します。
3.
パラメータ/proc/sys/vm/hugetlb_shm_groupの値としてoinstallグループのGIDを入力します。 これを行うと、oinstallのメンバーに
共有メモリー・セグメントを作成するためのグループ権限が付与されます。
たとえば、oinstallグループのGIDが501の場合は次のようになります。
# echo 501 > /proc/sys/vm/hugetlb_shm_group
このコマンドを実行したら、viを使用して/etc/sysctl.confに次のテキストを追加し、システムの再起動時にboot.sysctlスクリプトを実
行できるようにします。
vm.hugetlb_shm_group=501
注意:
vm.hugetlb_shm_groupとして定義できるのは1つのグループのみです。
4.
クラスタ内の他のすべてのノードで手順1から3を繰り返します。
E.3 手動によるOCFS2のバージョンの確認
OCFSのバージョンを手動で確認するには、次のコマンドを入力します。
modinfo ocfs2
rpm -qa ¦grep ocfs2
ocfs2consoleおよびocfs2-toolsがバージョン1.2.7以上であること、またその他のOCFS2コンポーネントがパターンocfs2-kernel_version-1.2.7以
上に対応していることを確認します。 Oracle RACを共有ホームにインストールする場合は、OCFSのバージョンは1.4.1以上である必要がありま
す。
OCFS2の詳細は、次のWebサイトを参照してください。
http://oss.oracle.com/projects/ocfs2/
157
F Oracle Grid Infrastructure 11gリリース2へのアップグレード方法
この付録では、Oracle ClusterwareおよびOracle自動ストレージ管理のアップグレードの実行方法について説明します。
Oracle Clusterwareのアップグレードでは、ローリング・アップグレードが可能です。ローリング・アップグレードでは、他のノードはアク
ティブなまま、ノードのサブセットを停止してアップグレードします。 Oracle自動ストレージ管理11gリリース2(11.2)のアップグレードで
は、ローリング・アップグレードが可能です。 ノードのサブセットをアップグレードする場合は、アップグレードの対象として選択しなかった
既存のクラスタ・ノードでソフトウェアのみのインストールが実行されます。
この付録の内容は次のとおりです。
●
アップグレード前のOracleソフトウェアのバックアップ
●
ClusterwareおよびASMをグリッド・インフラストラクチャにアップグレードする際の制限
●
アップグレードに対するシステム準備状況の検証
●
既存のOracle Clusterwareインストールのアップグレード
●
前のリリースからのローリング・アップグレードの実行
●
DB ControlおよびGrid Controlのターゲット・パラメータの更新
●
アップグレード後のOracle Clusterwareのダウングレード
F.1 アップグレード前のOracleソフトウェアのバックアップ
Oracleソフトウェアを変更する前に、Oracleソフトウェアおよびデータベースのバックアップを作成することをお薦めします。
F.2 ClusterwareおよびASMをグリッド・インフラストラクチャにアップグレードする際の制限
Oracle Clusterwareおよび自動ストレージ管理(Oracle ASM)で構成されるOracle Grid Infrastructure環境へのアップグレードには、次の制
限と変更点があることに注意してください。
●
●
既存のOracle ClusterwareインストールをOracle Grid Infrastructure 11gにアップグレードするには、リリースが10.1.0.3、
10.2.0.3、11.1.0.6以上である必要があります。
既存のOracle ASMインストールをOracle Grid Infrastructure 11gリリース2(11.2)にローリング方式でアップグレードするには、
リリースが11.1.0.6以上である必要があります。
参照:
My Oracle SupportのNote 785351.1「Oracle Upgrade Companion」
https://metalink.oracle.com
●
Oracle ClusterwareおよびOracle ASMのアップグレードは、常にアウトオブプレース・アップグレードで行われます。 11gリリース2
(11.2)では、Oracle ClusterwareおよびOracle ASMのインプレース・アップグレードを既存のホームに対して実行することはできま
せん。
158
●
●
●
●
既存のOracle Clusterwareホームが共有ホームの場合、Oracle ClusterwareおよびOracle ASM 11gリリース2(11.2)のクラスタ用グ
リッド・インフラストラクチャ・ホームに、共有されていないホームを使用できます。
Oracle Database 11gの前は、すべてのOracleソフトウェアのインストールをOracleユーザー(通常はoracle)が所有していたか、ま
たはOracle Databaseソフトウェアはoracleが所有し、Oracle Clusterwareソフトウェアは別のユーザー(通常はcrs)が所有していま
した。 Oracle Database 11gからは、Oracle Clusterware 10gソフトウェアを所有していたのと同じユーザーが、Oracle
Clusterware 11gのアップグレードを行う必要があります。
Oracle ASMとOracle Clusterwareの両方がOracle Grid Infrastructureホームで実行されます。
11gリリース2(11.2)へのメジャー・バージョン・アップグレード中、11gリリース2(11.2)のグリッド・インフラストラクチャ・
ホームにあるソフトウェアは、アップグレードが完了するまで完全には機能しません。 最終的にrootupgrade.shスクリプトが実行さ
れ、すべてのノードでアップグレードが完了するまで、11gリリース2(11.2)ホームからのsrvctl、crsctl、その他コマンドの実行はサ
ポートされません。
グリッド・インフラストラクチャのアップグレード中に既存の旧バージョン(リリース10.xまたは11.1)のデータベース・ホームを管
理するには、既存のデータベース・ホームからsrvctlを使用します。
●
●
Oracle Clusterwareのインストール中に、スタンドアロン・バージョンのOracle ASMがローカル・ノードに存在する場合、その
Oracle ASMはクラスタ化されたOracle ASM 11gリリース2(11.2)に変換され、Oracle ASMはすべてのノードのOracle Grid
Infrastructureホームで実行されます。
ローカル・ノード(Oracle Grid Infrastructureのインストールを実行中のノード)以外のリモート・ノードにスタンドアロンの(ク
ラスタ化されていない)Oracle ASMがインストールされている場合は、スタンドアロンのOracle ASM環境がそのまま維持されます。
ただし、インストール中に、Oracle Cluster Registry(OCR)および投票ディスクのファイルをOracle ASMに置くように選択した場合
は、クラスタ化されたOracle ASMのインストール環境がクラスタ内のすべてのノードに作成され、リモート・ノードにインストールさ
れているスタンドアロンのOracle ASMは機能しなくなります。
参照:
『Oracle Databaseアップグレード・ガイド』
F.3 アップグレードに対するシステム準備状況の検証
クラスタ検証ユーティリティを使用すると、データベースのアップグレードを開始する前準備として、システムをチェックできます。
参照:
『Oracle Databaseアップグレード・ガイド』
F.4 既存のOracle Clusterwareインストールのアップグレード
既存のOracle Clusterwareインストールがある場合は、アウトオブプレース・アップグレードを行うことにより、既存のクラスタをアップグ
レードします。 インプレース・アップグレードは実行できません。
F.4.1 既存のOracle Clusterwareインストールをアップグレードするための準備
アップグレードを開始する前に、次の作業を行います。
1.
各ノードで、クラスタ検証ユーティリティを使用して、インストール前の手順が完了していることを確認します。 このユーティリ
ティでは、サーバーの準備をするための修正スクリプトを生成することができます。 また、インストーラでは、必要な前提条件をす
べて満たしていることが確認されます。
次の情報を含めて、インストール時に必要な情報がすべて揃っていることを確認します。
❍
Oracle ClusterwareのOracleベースの場所。
159
❍
既存のOracle Clusterwareの場所とは異なる、Oracle Grid Infrastructureホームの場所。
❍
SCANアドレス。
❍
❍
2.
Oracle ASMデータ・ファイルへのアクセス権(ASMグループのOSDBA)、Oracle ASMインスタンスに対する管理権限(OSASM
グループ)、Oracle ASMインスタンスに対する管理権限のサブセット(ASMグループのOSOPER)を付与する権限を持つユー
ザー・オペレーティング・システム・グループ。
インストール中にrootとしてスクリプトを実行するためのrootユーザー・アクセス。
インストールを実行するインストール所有者に関しては、既存のインストールに対して環境変数が設定済の場合は、$ORACLE_HOMEと
$ORACLE_SIDの設定を解除します。これらの環境設定がアップグレード中に使用されてしまうからです。 次に例を示します。
$ unset ORACLE_BASE
$ unset ORACLE_HOME
$ unset ORACLE_SID
F.5 前のリリースからのローリング・アップグレードの実行
Oracle Clusterwareまたは自動ストレージ管理をアップグレードするには、次の手順を実行します。
●
アップグレードに対するシステム準備状況の検証
●
Oracle Clusterwareのローリング・アップグレードの実行
●
自動ストレージ管理のローリング・アップグレードの実行
注意:
Oracle Clusterware 11gリリース2(11.2)にアップグレードすると、自動ストレージ管理(Oracle ASM)が
Oracle Clusterwareと同じホームにインストールされます。 このホームは、Oracleドキュメントでは、グリッ
ド・インフラストラクチャ・ホームまたはグリッド・ホームと呼ばれます。 また、ローリング・アップグレード
中に、ノードをクラスタに追加する操作はサポートされていません。
F.5.1 アップグレードに対するシステム準備状況の検証
クラスタ検証ユーティリティを使用すると、データベースのアップグレードを開始する前準備として、システムをチェックできます。 インス
トーラによって適切なCVUチェックが自動的に実行され、問題の修正を求めるプロンプトが表示されるか、またはアップグレードを進める前にク
ラスタ内のすべてのノード上で実行するための修正スクリプトが提供されます。
Oracle Clusterware 11gリリース2(11.2)では、共有のOracle Clusterwareホームでアップグレードを実行できます。
F.5.2 Oracle Clusterwareのローリング・アップグレードの実行
Oracle Clusterwareを前のリリースから新しいリリースにアップグレードするには、次の手順を実行します。
注意:
Oracle RACインスタンスは、実行したままにしておくことをお薦めします。 各ノードでrootスクリプトを起動す
ると、そのノードのインスタンスが停止され、rootupgrade.shスクリプトによって再度起動されます。
クラスタ上のスタンドアロンのOracle Databaseは、Oracle ASMを使用する場合のみ、停止が必要です。 リス
ナーを停止する必要はありません。
160
1.
インストーラを起動し、インストールされている既存のOracle ClusterwareおよびOracle ASMをアップグレードするオプションを選択
します。
2.
ノード選択ページで、すべてのノードを選択します。
注意:
Oracle Clusterware 11gリリース2より前のリリースとは対照的に、すべてのノードをアップグレード対
象に選択したとしても、アップグレードはすべてローリング・アップグレードになります。
すべてのクラスタ・メンバー・ノードをアップグレード対象として選択し、アップグレードのrootスクリ
プトを実行する前に各ノードでデータベース・インスタンスを停止し、アップグレードの完了後に各ノー
ドでデータベース・インスタンスを再度起動することをお薦めします。 この手順を実行して、クラスタ
のノードのサブセットをアップグレードすることもできます。
3.
指示どおりに、インストール・オプションを選択します。
プロンプトが表示されたら、アップグレードするクラスタ内の各ノード上でrootupgrade.shスクリプトを実行します。 このスクリプ
トは、前のリリースのインストール環境を停止し、新しいOracle Clusterwareリリースに置き換えて、新しいOracle Clusterwareのイ
ンストールを開始します。
ノード上でrootupgrade.shスクリプトが実行されると、アップグレードされたOracle ClusterwareスタックおよびAUTOSTARTリソース
が、ノード上で開始されます。
4.
ローリング・アップグレードを実行する各ノードで、rootupgrade.shを実行します。 まず、ローカル・ノード上でスクリプトを実行
します。 スクリプトが正常に完了したら、最後のノードとして選択した1つを除いて、すべてのノード上で並行してスクリプトを実行
できます。 最後のノードを除いたすべてのノード上でスクリプトが正常に実行されたら、最後のノード上でスクリプトを実行しま
す。
5.
クラスタの最後のノードでrootupgrade.shスクリプトを実行した後で、ASM Configuration Assistantが自動的に実行され、Oracle
Clusterwareのアップグレードが完了します。
前のバージョンの自動ストレージ管理がインストールされている場合、Oracle ASMを11gリリース2(11.2)へアップグレードするため
に、インストーラによってASM Configuration Assistantが起動されます。 Oracle ASMをこのときにアップグレードするか、または後
でアップグレードするか、選択することができます。
Oracle Clusterwareバイナリをアップグレードするのと同時に、Oracle ASMもアップグレードすることをお薦めします。 ASMがアップ
グレードされるまで、ASMを使用するOracle Databaseは作成できません。 ASMがアップグレードされるまで、グリッド・ホームにある
11gリリース2(11.2)のASM管理ツール(srvctlなど)は動作しません。
注意:
アップグレードの最後に、OCRのバックアップ場所を前のリリースのOracle Clusterwareホーム(CRSホー
ム)に手動で設定していた場合は、Oracle Grid Infrastructureホーム(グリッド・ホーム)に変更する
必要があります。 OCRのバックアップ場所を手動で設定しなかった場合は、この問題は関係がありませ
ん。
Oracle Clusterwareのアップグレードはアウトオブプレース・アップグレードなので、前のリリースの
Oracle ClusterwareホームをOCRのバックアップ場所にすることはできません。 前のOracle Clusterware
ホームにあるバックアップは、削除されることがあります。
F.5.3 自動ストレージ管理のローリング・アップグレードの実行
Oracle Clusterware 11gリリース2(11.2)のアップグレードが完了した後、Oracle Clusterwareのアップグレード時にOracle ASMのアップグ
レードをしなかった場合は、自動ストレージ管理コンフィギュレーション・アシスタント(asmca)を使用して、ローリング・アップグレードを
161
別途行うことができます。
asmcaを使用してアップグレードを別途行うことはできますが、Oracle Clusterwareのアップグレード後すぐに行う必要があります。Oracle ASM
がアップグレードされるまでsrvctlなどのOracle ASM管理ツールが機能しないためです。
注意:
前のバージョンのOracle ASMが11.1.0.6または11.1.0.7の場合のみ、ASMCAによってローリング・アップグレード
が行われます。 そうでない場合、ASMCAによって通常のアップグレードが行われます。このアップグレードで
は、ASMCAによって、クラスタのすべてのノードにおいて、すべてのOracle ASMインスタンスが停止され、新しい
グリッド・ホームですべて再起動されます。
F.5.3.1 Oracle ASMをアップグレードするための準備
Oracle ASMのローリング・アップグレードを実行する場合は、次の点に注意してください。
●
Oracle Clusterwareのアクティブなバージョンが、11gリリース2(11.2)である必要があります。 次のコマンドを入力して、アク
ティブなバージョンを確認します。
$ crsctl query crs activeversion
●
●
●
スタンドアロンのOracle ASM環境を、クラスタ化されたOracle ASM環境へアップグレードできます。 ただし、スタンドアロンの既存
のOracle ASM環境をアップグレードできるのは、そのOracle ASM環境があるノードからインストールを実行する場合のみです。 リ
モート・ノードにあるシングル・インスタンスのOracle ASM環境をアップグレードすることはできません。
アップグレード・プロセスを開始する前に、既存のOracle ASM環境で行われているリバランス操作が完了していることを確認する必要
があります。
アップグレード・プロセスの進行中は、Oracle ASMインスタンスをアップグレード状態に変更することになります。 このアップグ
レード状態ではOracle ASM操作が制限されるため、アップグレード・プロセスは開始してすぐに完了する必要があります。 Oracle
ASMインスタンスがアップグレード状態にあるときに可能な操作は、次のとおりです。
❍
ディスク・グループのマウントとマウント解除
❍
データベース・ファイルのオープン、クローズ、サイズ変更または削除
❍
インスタンスのリカバリ
❍
固定ビューおよび固定パッケージの問合せ(固定ビューの問合せと、dbms_diskgroupなどの固定パッケージを使用した匿
名PL/SQLブロックの実行は可能です)
F.5.3.2 Oracle ASMのアップグレード
Oracle ASMをアップグレードするには、次の手順を実行します。
1.
アップグレードを開始しようとしているノードで、環境変数ASMCA_ROLLING_UPGRADEの値をtrueにします。 次に例を示します。
$ export ASMCA_ROLLING_UPGRADE=true
2.
Oracle Grid Infrastructure 11gリリース2(11.2)のホームから、ASMCAを起動します。 次に例を示します。
$ cd /u01/11.2/grid/bin
$ ./asmca
3.
「アップグレード」を選択します。
162
ASM Configuration Assistantにより、クラスタ内にあるすべてのノードのOracle ASMが連続してアップグレードされます。
参照:
Oracle ASMのアップグレード計画の準備、およびOracle ASMアップグレードの開始、実行、停止の詳細は、
『Oracle Databaseアップグレード・ガイド』および『Oracle Databaseストレージ管理者ガイド』を参照してく
ださい。
F.6 DB ControlおよびGrid Controlのターゲット・パラメータの更新
Oracle Clusterwareリリース2(11.2)は新しい場所(クラスタ用グリッド・インフラストラクチャ・ホーム、またはグリッド・ホーム)で
Oracle Clusterwareホームをアウトオブプレース・アップグレードしたものであるため、いくつかのパラメータ・ファイルでCRS_HOMEパラメー
タのパスを変更する必要があります。 パラメータを変更しないと、DB ControlまたはGrid Controlで、クラスタ・ターゲットの不正などのエ
ラーが発生します。
この問題を解決するには、次の手順を実行します。
1.
dbconsoleまたはgridconsoleにログインします。
2.
「クラスタ」タブに移動します。
3.
「監視構成」をクリックします。
4.
「Oracleホーム」の値を新しいグリッド・ホームのパスで更新します。
F.7 アップグレード後のOracle Clusterwareのダウングレード
Oracle Clusterware 11gリリース2(11.2)へのアップグレードが成功または失敗した後で、Oracle Clusterwareを前のバージョンにリストアす
ることができます。
この項のリストア手順では、Clusterwareの構成をOracle Clusterware 11gリリース2(11.2)のアップグレードをする前の状態までリストアし
ます。 11gリリース2(11.2)のアップグレードの最中または後で行った変更はすべて消去され、リカバリされません。
Oracle Clusterwareを前のリリースにリストアするには、次の手順を実行します。
1.
すべてのリモート・ノード上で、コマンド構文Grid_home/crs/install/rootcrs.pl -downgrade [-force]を使用して、11gリリース2
(11.2)リソースを停止し、11gリリース2(11.2)スタックを停止します。
注意:
このコマンドによってOCRがリセットされたり、ocr.locが削除されたりすることはありません。
次に例を示します。
# /u01/app/grid/11.2.0/crs/install/rootcrs.pl -downgrade
11gリリース2(11.2)の部分的なインストールまたは失敗したインストールを停止し、Oracle Clusterwareの以前のリリースをリスト
アするには、このコマンドで-forceフラグを使用します。
2.
rootcrs.pl -downgradeスクリプトをすべてのリモート・ノードで実行し終わったら、ローカル・ノードでコマンド構文Grid_home/
crs/install/rootcrs.pl -downgrade -lastnode -oldcrshome pre11.2_crs_home -version pre11.2_crs_version [-force]を使用しま
す。pre11.2_crs_homeは前のOracle Clusterwareインストールのホーム、pre11.2_crs_versionは前のOracle Clusterwareインストー
ルのリリース番号です。
次に例を示します。
163
# /u01/app/grid/11.2.0/crs/install/rootcrs.pl -downgrade -lastnode -oldcrshome
/u01/app/crs -version 11.1.0.6.0
スクリプトによってOCRがダウングレードされ、グリッド・ホームからバイナリが削除されます。 11gリリース2(11.2)の部分的なイ
ンストールまたは失敗したインストールを停止し、Oracle Clusterwareの以前のリリースをリストアするには、このコマンドで-force
フラグを使用します。
3.
ローカル・ノードのスクリプトが完了すると、クラスタの各メンバー・ノード上で順に、前のリリースのOracle Clusterwareインス
トールのホームからroot.shを実行するようプロンプトが表示されます。 この作業が終了したら、ダウングレードは完了です。
前のリリースのOracle Clusterwareインストールのホームからroot.shを実行することにより、Oracle Clusterwareスタックが再起動
され、以前に古いバージョンでOracle Clusterwareに登録されていたすべてのリソースが起動され、そして前のリリースのOracle
Clusterwareスタックを実行するように古い初期化スクリプトが構成されます。
164
索引
記号 数字 A B C D E F G H I J K L M N O P R S T U W X あ か さ た な は ま や ら わ
記号
.bash_profileファイル, [1]
.loginファイル, [1], [2]
.profileファイル, [1], [2]
/dev/shm
初期化パラメータ, [1]
/etc/csh.login.localファイル, [1]
/etc/csh.loginファイル, [1]
/etc/pam.d/loginファイル, [1]
/etc/profile.localファイル, [1]
/etc/profileファイル, [1]
/etc/security/limits.soファイル, [1]
/proc/sys/fs/aio-max-nr, [1]
/proc/sys/fs/file-maxファイル, [1]
/proc/sys/kernel/semファイル, [1]
/proc/sys/kernel/shmall, [1]
/proc/sys/kernel/shmallファイル, [1]
/proc/sys/kernel/shmmax, [1]
/proc/sys/kernel/shmmniファイル, [1]
/proc/sys/kernel/shmni, [1]
/proc/sys/net/core/rmem_defaultファイル, [1]
/proc/sys/net/core/rmem_maxファイル, [1]
/proc/sys/net/core/wmem_defaultファイル, [1]
/proc/sys/net/core/wmem_maxファイル, [1]
/proc/sys/net/ipv4/ip_local_port_range, [1]
/tmpディレクトリ
領域の解放, [1]
領域の確認, [1]
数字
32-bitと64-bit
同じクラスタでソフトウェア・バージョンがサポートされない, [1]
A
ACFS, 「Oracle ACFS」を参照
aio-max-nr, [1]
AMD 64
ソフトウェア要件, [1]
Asianux
オペレーティング・システム要件, [1], [2]
ASM
ASMのためのOSDBAグループの作成, [1]
ASMのディスクの構成, [1]
165
ASM用のOSDBAグループ, [1]
ASMライブラリ・ドライバ(ASMLIB), [1]
Oracle Clusterwareファイルに必要な領域, [1]
Oracle Clusterwareファイルの格納, [1]
OSASM管理者またはASM管理者, [1]
Standard EditionのOracle RACに必要, [1]
各ノードのインスタンスの数, [1], [2]
候補ディスク, [1], [2]
事前構成済データベースに必要な領域, [1]
障害グループ, [1]
確認, [1], [2]
例, [1], [2]
障害グループの特性, [1], [2]
使用可能なディスクの確認, [1]
接続されたディスクの表示, [1]
ディスク可用性の確認, [1]
ディスク・グループ, [1]
ディスク・グループの推奨事項, [1]
データ・ファイルの記憶域オプション, [1]
標準インストール・タイプに必要, [1]
複数のデータベース, [1]
ブロック・デバイス名, [1]
ローリング・アップグレード, [1], [2], [3]
asmcmdエラー, [1]
ASMLIB, [1]
ASMグループ
作成, [1]
ASMディスク
マーキング, [1]
ASMのためのOSDBAグループ, [1]
概要, [1]
ASMのためのOSOPERグループ
概要, [1]
作成, [1]
ASM用のOSDBAグループ
作成, [1]
ASMライブラリ・ドライバ(oracleasm)
インストール, [1]
B
Bashシェル
シェル制限の設定, [1]
デフォルト・ユーザーの起動ファイル, [1]
BMC
構成, [1]
BMCインタフェース
インストール前の作業, [1]
Bourneシェル
Linux x86でのシェル制限の設定, [1]
デフォルト・ユーザーの起動ファイル, [1]
C
chmodコマンド, [1]
chownコマンド, [1]
166
cronジョブ, [1], [2]
crs_install.rspファイル, [1]
csh.login.localファイル, [1]
csh.loginファイル, [1]
ctsdd, [1]
cvuqdisk, [1], [2]
Cシェル
シェル制限の設定, [1]
デフォルト・ユーザーの起動ファイル, [1]
D
Database Configuration Assistant
サイレント・モードでの実行, [1]
dbaグループ, 「OSDBAグループ」を参照
dbca.rspファイル, [1]
dfコマンド, [1], [2]
Direct NFS
書込みサイズの最小値, [1]
データ・ファイル, [1]
無効化, [1]
有効化, [1]
E
enterprise.rspファイル, [1]
Enterprise Linux
オペレーティング・システム要件, [1], [2]
envコマンド, [1]
Exadata
バイナリの再リンク例, [1]
F
fdiskコマンド, [1]
file-max, [1]
G
GFS, [1]
gid
既存の確認, [1]
指定, [1]
他のノードでの指定, [1]
GNS
概要, [1]
GPFS, [1]
167
gridユーザー, [1]
H
hangcheck-timer, [1]
I
IDEディスク
デバイス名, [1]
idコマンド, [1]
INS-32026エラー, [1]
IPMI
GNSで構成できないアドレス, [1]
インストールの準備, [1]
インストール前の作業, [1]
ドライバの構成, [1]
ip_local_port_range, [1]
J
JDK要件, [1]
K
Kornシェル
LDAP, [1], [2]
シェル制限の設定, [1]
デフォルト・ユーザーの起動ファイル, [1]
ksh
「Kornシェル」を参照
L
LDAP
odisrvreg
システム要件, [1], [2]
oidca
システム要件, [1], [2]
schemasynch
システム要件, [1], [2]
libnfsodm11.so, [1]
libodm11.so, [1]
168
Lightweight Directory Access Protocol
「LDAP」を参照
limits.soファイル, [1]
limitコマンド, [1]
Linux
cvuqdiskパッケージ, [1]
カーネル・エラータ, [1]
シェル制限の設定, [1]
ディストリビューションの確認, [1]
バージョンの確認, [1]
Linux(32-bit)
ソフトウェア要件, [1]
Linux x86-64
ソフトウェア要件, [1]
Linuxディストリビューションの確認, [1]
Linuxの最小インストール
推奨事項, [1]
lsdevコマンド, [1]
LVM
ASMの推奨事項, [1]
/dev/shm, [1]
M
MEMORY_TARGET, [1]
mkdirコマンド, [1]
My Oracle Support, [1]
N
netca, [1]
netca.rspファイル, [1]
Net Configuration Assistant(NetCA)
コマンド・プロンプトでの実行, [1]
レスポンス・ファイル, [1]
NFS, [1], [2]
Direct NFS, [1]
Oracle Clusterwareファイル, [1]
rsize, [1]
データ・ファイル, [1], [2]
バッファ・サイズ・パラメータ, [1], [2]
NIS
ローカル・ユーザーおよびグループの代替, [1]
nofile
Linuxでのシェル制限, [1]
nproc
Linuxでのシェル制限, [1]
NTPプロトコル
設定, [1]
O
169
OCFS2, [1]
Linuxでの確認, [1]
Linux用のダウンロード場所, [1]
グリッド・ホームがサポートされない, [1]
状態, [1]
バージョンの確認, [1], [2], [3]
OCR, 「Oracle Cluster Registry」を参照
OINSTALLグループ
oraInst.loc, [1]
概要, [1]
存在の確認, [1]
他のノードでの指定, [1]
OINSTALLグループ, 「Oracle Inventoryグループ」を参照
operグループ, 「OSOPERグループ」を参照
oprocd, [1]
Optimal Flexible Architecture
oraInventoryディレクトリ, [1]
oracle-validated.rpm, [1]
Oracle ACFS
概要, [1]
サポートされているLinuxバージョン, [1]
oracleasm RPM
インストール, [1]
Oracle Cluster Registry
構成, [1]
サポートされている記憶域オプション, [1]
パーティション・サイズ, [1]
ブロック・デバイス・パーティションを所有する権限ファイル, [1]
ミラー化, [1]
Oracle Clusterware
Oracle ASMインスタンスのアップグレード, [1], [2]
アップグレード, [1]
インストール, [1]
サポートされている記憶域オプション, [1]
ファイル・システム, [1]
ローリング・アップグレード, [1]
Oracle Clusterwareファイル
ASMディスク領域の要件, [1]
Oracle Database
ASMの要件, [1]
オペレーティング・システムのパッチの要件, [1], [2]
権限を付与されたグループ, [1]
個別のデータ・ファイル・ディレクトリの作成, [1], [2]
データ・ファイルの記憶域オプション, [1]
Oracle Database Configuration Assistant
レスポンス・ファイル, [1]
Oracle Disk Manager
Direct NFS, [1]
Oracle Enterprise Linux
Oracle Validated RPM, [1]
Oracle Grid Infrastructureレスポンス・ファイル, [1]
Oracle Inventoryグループ
oraInst.locファイル, [1]
概要, [1]
作成, [1]
存在の確認, [1]
他のノードでの作成, [1]
Oracle Net Configuration Assistant
レスポンス・ファイル, [1]
Oracle Real Application Clusters
ASMのディスクの構成, [1]
オペレーティング・システムのパッチの要件, [1], [2]
Oracle Universal Installer
レスポンス・ファイル
リスト, [1]
Oracle Upgrade Companion, [1]
170
Oracle Validated Configuration RPM, [1]
Oracle Enterprise Linuxに含まれる, [1]
インストール, [1]
概要, [1]
トラブルシューティング, [1]
Oracleソフトウェア所有者ユーザー
環境の構成, [1]
作成, [1], [2], [3], [4]
シェル制限の設定, [1]
説明, [1]
デフォルトのシェルの確認, [1]
必要なグループ・メンバーシップ, [1]
他のノードでの作成, [1]
Oracleパッチの更新, [1]
Oracleベース
グリッド・ホームの禁止, [1]
Oracleベース・ディレクトリ
概要, [1]
グリッド・ホームはOracle DatabaseのOracleベースに配置しない, [1]
ディスクの最小領域, [1]
Oracleホーム, [1]
ASCIIパスの制限, [1]
複数のOracleホーム, [1], [2]
oracleユーザー
Oracle Validated RPM, [1]
環境の構成, [1]
作成, [1], [2], [3], [4], [5], [6]
シェル制限の設定, [1]
説明, [1]
デフォルトのシェルの確認, [1]
必要なグループ・メンバーシップ, [1]
他のノードでの作成, [1]
oraInst.loc
中央インベントリ, [1]
内容, [1]
oraInst.locファイル
位置, [1], [2]
oraInventory, [1]
概要, [1]
作成, [1]
oraInventory, 「Oracle Inventoryグループ」を参照
OSASMグループ, [1]
SYSASM, [1]
概要, [1]
作成, [1]
複数のデータベース, [1]
OSDBAグループ
SYSDBA権限, [1]
作成, [1]
説明, [1]
他のノードでの作成, [1], [2]
OSOPERグループ
SYSOPER権限, [1]
作成, [1]
説明, [1]
他のノードでの作成, [1], [2]
OS Watcher, [1]
P
171
passwdコマンド, [1]
PC Xサーバー
インストール, [1], [2]
profile.localファイル, [1], [2]
PRVF-5436エラー, [1]
R
RACDDT, [1]
RAID
ASMの推奨冗長レベル, [1]
Oracle Cluster Registryおよび投票ディスクのミラー化, [1]
RAM要件, [1]
RAWデバイス
アップグレード, [1], [2]
既存のパーティションのアップグレード, [1]
サポート終了, [1]
RAWデバイスのサポート終了, [1]
Red Hat
オペレーティング・システム要件, [1], [2]
Red Hat Package Manager
「RPM」を参照
rmem_default, [1]
rmem_max, [1]
root.sh, [1]
実行, [1]
バックアップ, [1]
rootユーザー
ログイン, [1]
RPM
確認, [1]
デフォルトのLinuxインストール, [1]
rsizeパラメータ, [1]
S
SCAN, [1], [2]
ポリシー管理データベースのクライアントに必要なSCANの使用, [1]
理解, [1]
SCANリスナー, [1]
SCSIディスク
デバイス名, [1]
semmniパラメータ
Linuxでの推奨値, [1]
semmnsパラメータ
Linuxでの推奨値, [1]
semmslパラメータ
Linuxでの推奨値, [1]
semopmパラメータ
Linuxでの推奨値, [1]
semファイル, [1]
shmall, [1]
shmmax, [1]
shmmni, [1]
ssh
OUIからの自動構成, [1]
172
X11転送, [1]
構成, [1]
サポートされているバージョン, [1]
使用時, [1]
SUSE
オペレーティング・システム要件, [1], [2]
SYSASM, [1]
OSASM, [1]
SYSDBA
ASMでのデータベースSYSDBAの使用は非推奨, [1]
SYSDBA権限
関連するグループ, [1]
SYSOPER権限
関連するグループ, [1]
T
tcshシェル
シェル制限の設定, [1]
TEMP環境変数, [1]
設定, [1]
TMPDIR環境変数, [1]
設定, [1]
U
uid
既存の確認, [1]
指定, [1]
他のノードでの指定, [1]
ulimitコマンド, [1]
umask, [1]
umaskコマンド, [1], [2]
useraddコマンド, [1], [2], [3]
W
wmem_default, [1]
wmem_max, [1]
wsizeパラメータ, [1]
wtmax, [1]
Direct NFSの最小値, [1]
X
X11転送
エラー, [1]
173
X11転送エラー, [1]
xhostコマンド, [1]
xtermコマンド, [1], [2]
X Window System
リモート・ホストの有効化, [1], [2], [3]
Xエミュレータ
インストール, [1], [2]
あ
アカウントの構成, [1]
アーキテクチャ
システム・アーキテクチャの確認, [1]
アップグレード, [1]
OCRパーティション・サイズ, [1]
Oracle ASM, [1]
Oracle Clusterware, [1]
RAWデバイスまたはブロック・デバイスの使用, [1]
SCAN, [1]
環境変数の設定の削除, [1]
既存のOracle ASMインスタンス, [1], [2]
制限, [1]
投票ディスク・パーティション・サイズ, [1]
ローカルのグリッド・ホームに対する共有のOracle Clusterwareホーム, [1]
一時ディスク領域
解放, [1]
確認, [1]
要件, [1]
一時ディレクトリ, [1]
一時ディレクトリ, 「/tmpディレクトリ」を参照
インストール
cronジョブ, [1]
クラスタ構成ファイルの使用, [1]
グローバリゼーション, [1]
サイレント・モード, [1]
レスポンス・ファイル, [1]
oraInst.locファイル, [1]
準備, [1], [2]
テンプレート, [1]
インストール後
root.shのバックアップ, [1]
パッチのダウンロードおよびインストール, [1]
インストール・タイプ
ASM, [1]
インタフェース
プライベート・インターコネクトの要件, [1]
エミュレータ
Xエミュレータからのインストール, [1], [2]
エラー
X11転送, [1], [2]
エラータ
Linuxのカーネル・エラータ, [1]
オペレーティング・システム
Linuxのディストリビューションおよびバージョンの確認, [1]
Oracle ACFSの制限, [1]
クラスタ・メンバーで異なる, [1]
パッケージの不足, [1]
要件, [1]
174
か
カスタム・インストール・タイプ
選択する理由, [1]
カスタム・データベース
ASMの障害グループ, [1], [2]
ASMを使用する場合の要件, [1]
カーネル
Linuxのエラータ, [1]
カーネル・パラメータ
構成, [1]
カーネル・パラメータの構成, [1]
環境
oracleユーザーの構成, [1]
設定の確認, [1]
環境変数
DISPLAY, [1]
ORACLE_BASE, [1], [2], [3]
ORACLE_HOME, [1], [2], [3]
ORACLE_SID, [1], [2]
SHELL, [1]
TEMPおよびTMPDIR, [1], [2]
シェル起動ファイルからの削除, [1]
環境変数DISPLAY
設定, [1]
環境変数ORACLE_BASE
シェル起動ファイルからの削除, [1]
環境変数ORACLE_HOME
シェル起動ファイルからの削除, [1]
環境変数ORACLE_SID
シェル起動ファイルからの削除, [1]
環境変数SHELL
値の確認, [1]
記憶域
ASM候補ディスクのマーキング, [1]
起動ファイル
シェル, [1]
デフォルト・シェルの起動ファイル, [1]
クライアント
SCANへの接続, [1]
クラスタ検証ユーティリティ
cvuqdisk, [1]
修正スクリプト, [1]
ユーザー等価関係のトラブルシューティング, [1]
クラスタ構成ファイル, [1]
クラスタ時刻同期化サービス, [1]
クラスタ・ノード
uidおよびgidの指定, [1]
仮想ノード名, [1]
パブリック・ノード名, [1]
プライベート・ノード名, [1]
クラスタ・ファイル・システム
グリッド・ホームがサポートされない, [1]
データ・ファイルの記憶域オプション, [1]
クラスタ名
要件, [1]
グリッド・インフラストラクチャ所有者(grid), [1]
グリッド・インフラストラクチャ・ホーム・バイナリの再リンク, [1], [2]
グリッド・ネーミング・サービス, 「GNS」を参照
グリッド・ホーム
Oracleべースの制限, [1]
ディスク領域, [1]
デフォルトのパス, [1]
175
ロック解除, [1]
グループ
ASMグループの作成, [1], [2]
ASMのためのOSDBAグループの作成, [1]
ASMのためのOSOPER, [1]
NISの使用, [1], [2]
OINSTALL, [1], [2]
OINSTALLグループの存在の確認, [1], [2]
OSASM(asmadmin), [1]
OSDBA(dba), [1]
OSDBAグループ(dba), [1]
OSDBAグループの作成, [1]
OSOPER(oper), [1]
OSOPERグループ(oper), [1]
インストール所有者ユーザーに必要, [1]
他のノードでの同一グループの作成, [1], [2]
ユーザー作成時の指定, [1], [2]
グループID
既存の確認, [1]
指定, [1]
他のノードでの指定, [1]
グローバリゼーション
サポート, [1]
権限
データ・ファイル・ディレクトリ, [1]
権限を付与されたグループ
Oracle Database, [1]
候補ディスク
マーキング, [1], [2]
コマンド, [1]
asmca, [1], [2], [3], [4], [5]
asmcmd, [1]
cat, [1]
chmod, [1]
chown, [1]
crsctl, [1], [2], [3], [4]
dd, [1]
df, [1], [2], [3]
env, [1]
fdisk, [1], [2]
groupadd, [1]
id, [1]
ipmitool, [1]
limit, [1]
lsdev, [1]
lsmod, [1]
mkdir, [1]
modinfo, [1]
modprobe, [1]
nscd, [1]
ntpd, [1]
partprobe, [1], [2]
passwd, [1]
ping, [1]
rootcrs.pl, [1]
rootupgrade.sh, [1]
rpm, [1], [2]
sqlplus, [1]
srvctl, [1]
swap, [1]
swapon, [1]
ulimit, [1]
umask, [1]
176
uname, [1], [2], [3]
unset, [1]
useradd, [1], [2], [3]
usermod, [1]
xhost, [1]
xterm, [1], [2]
解放, [1]
さ
サイレント・モード
概要, [1]
使用する理由, [1]
「レスポンス・ファイル」を参照, [1]
サイレント・モードによるインストール, [1]
サポートされている記憶域オプション
Oracle Clusterware, [1]
サポート終了
RAWデバイス, [1]
ブロック・デバイス, [1]
シェル
oracleユーザーのデフォルトのシェルの確認, [1]
デフォルト・シェルの起動ファイル, [1]
シェル起動ファイル
環境変数の削除, [1]
編集, [1]
シェル制限
Linuxでの設定, [1], [2]
シェル制限の設定, [1]
システム・アーキテクチャ
確認, [1]
事前構成済データベース
ASMディスク領域要件, [1]
ASMを使用する場合の要件, [1]
実行レベル, [1]
自動ストレージ管理, 「ASM」を参照
自動ストレージ管理クラスタ・ファイル・システム, 「Oracle ACFS」を参照
修正スクリプト, [1]
概要, [1]
障害グループ
ASM, [1]
ASM障害グループの特性, [1], [2]
ASM障害グループの例, [1], [2]
冗長レベル
事前構成済データベースの領域要件, [1]
初期化パラメータ
MEMORY_TARGET, [1]
新機能, [1], [2]
スクリプト
root.sh, [1]
スタック
Linuxでのシェル制限, [1]
スワップ領域
要件, [1]
セキュリティ
Oracleソフトウェアの所有者の分割, [1]
「パスワード」を参照
ソフトウェア要件, [1]
ソフトウェア要件の確認, [1]
177
た
単一クライアント・アクセス名, 「SCANアドレス」を参照
断続的なハングアップ
ソケット・ファイル, [1]
中央インベントリ, [1]
概要, [1]
中央インベントリ, 「OINSTALLグループ」および「Oracle Inventoryグループ」を参照
ディスク
ASMの可用性の確認, [1]
接続されたディスクの表示, [1]
ディスク, 「ASMディスク」を参照
ディスク・グループ
ASM, [1]
Oracle ASMディスク・グループの推奨事項, [1]
推奨事項, [1]
ディスク領域
ASMでの事前構成済データベース要件, [1]
確認, [1]
ディレクトリ
個別のデータ・ファイル・ディレクトリの作成, [1], [2]
データ・ファイル・ディレクトリ用権限, [1]
データ消失
ASMによるリスクの最小化, [1], [2]
データ・ファイル
記憶域オプション, [1]
個別のディレクトリの作成, [1], [2]
データ・ファイル・ディレクトリでの権限の設定, [1]
データベース
ASM要件, [1]
データベース・ファイル
サポートされている記憶域オプション, [1]
デバイス名
IDEディスク, [1]
SCSIディスク, [1]
デフォルトのLinuxインストール
推奨事項, [1]
デフォルトのファイル・モード作成マスク
設定, [1]
投票ディスク
ddコマンドを使用したバックアップは非推奨, [1]
構成, [1]
サポートされている記憶域オプション, [1]
パーティション・サイズ, [1]
ミラー化, [1]
トラブルシューティング
asmcmdエラーおよびOracleホーム, [1]
ddコマンドを使用した投票ディスクのバックアップ, [1]
DISPLAYエラー, [1]
NFSマウント, [1]
OS WatcherおよびRACDDT, [1]
OUIからのSSHの自動構成, [1]
sqlplusエラーおよびOracleホーム, [1]
ssh, [1]
sshエラー, [1]
SSH構成の失敗, [1]
sttyエラー, [1]
X11転送エラー, [1]
インストール時の権限エラー, [1]
エラー・メッセージ, [1]
オペレーティング・システム・パッケージの不足, [1]
環境変数エラー, [1]
権限エラーとoraInventory, [1]
178
異なるグループIDとユーザーID, [1]
異なるユーザーIDとグループIDによるユーザー等価関係エラー, [1], [2]
実行レベル・エラー, [1]
断続的なハングアップ, [1]
ディスク領域エラー, [1]
パブリック・ネットワーク障害, [1]
不明なインストールのエラー, [1], [2]
ユーザー等価関係, [1], [2]
ユーザー等価関係エラー, [1]
ログ・ファイル, [1]
な
ネットワーク情報サービス
「NIS」を参照
は
バイナリ
再リンク, [1]
パスワード
「セキュリティ」を参照
レスポンス・ファイルへの指定, [1]
パッケージ
Linuxでの確認, [1]
デフォルトのLinuxインストール, [1]
パッケージcvuqdiskがインストールされていない, [1]
パッケージ, 「RPM」を参照
パッチの更新
My Oracle Support, [1]
インストール, [1]
ダウンロード, [1]
パーティション
ASMでの使用, [1]
ハードウェア要件, [1]
非対話モード, 「レスポンス・ファイル・モード」を参照
標準インストール・タイプ
レスポンス・ファイル・モードでのインストール, [1]
$ORACLE_HOME/lib/libnfsodm11.so, [1]
$ORACLE_HOME/lib/libodm11.so, [1]
.bash_profile, [1]
.login, [1]
.profile, [1]
/etc/csh.login, [1]
/etc/csh.login.local, [1]
/etc/pam.d/login, [1]
/etc/profile, [1]
/etc/profile.local, [1]
/etc/security/limits.so, [1]
/proc/sys/fs/file-max, [1]
/proc/sys/kernel/sem, [1]
/proc/sys/kernel/shmall, [1]
/proc/sys/kernel/shmmax, [1]
/proc/sys/kernel/shmmni, [1]
/proc/sys/net/ipv4/ip_local_port_range, [1]
ファイル
179
dbca.rsp, [1]
enterprise.rsp, [1]
oraInst.loc, [1]
oraInst.locファイル, [1]
profile.local, [1]
シェル起動ファイルの編集, [1]
デフォルト・シェルの起動ファイル, [1]
レスポンス・ファイル, [1]
ファイル・システム, [1]
データ・ファイルの記憶域オプション, [1]
ファイル・セット, [1]
ファイル・モード作成マスク
設定, [1]
フェンシング, [1]
IPMI, [1], [2]
複合バイナリ, [1]
複数のoracleホーム, [1], [2]
複数のデータベース
ASM, [1]
物理RAM要件, [1]
プロセッサ
システム・アーキテクチャの確認, [1]
ブロック・デバイス
Oracle Clusterwareファイル用の権限ファイルの作成, [1]
Oracle Databaseファイル用の権限ファイルの作成, [1]
アップグレード, [1]
アップグレードのみ, [1]
サポート終了, [1], [2]
デバイス名, [1]
ブロック・デバイスのサポート終了, [1]
ホスト名
変更, [1]
有効なホスト名, [1]
ホスト名の変更, [1]
ポリシー管理データベース
SCAN, [1]
ま
マスク
デフォルトのファイル・モード作成マスクの設定, [1]
メモリー・サイズ(SGAおよびPGA), [1]
メモリー要件, [1]
モード
デフォルトのファイル・モード作成マスクの設定, [1]
や
役割区分によるユーザー, [1]
有効なホスト名, [1]
ユーザー
Linuxでのユーザーのシェル制限の設定, [1]
NISの使用, [1], [2]
Oracleソフトウェア所有者ユーザー(oracle), [1]
oracleユーザーの作成, [1], [2], [3], [4], [5], [6], [7], [8]
作成時のグループの指定, [1], [2]
180
シェル制限の設定, [1]
他のノードでの同一ユーザーの作成, [1], [2]
ユーザーID
既存の確認, [1]
指定, [1]
他のノードでの指定, [1]
ユーザー等価関係
テスト, [1]
ユーザー等価関係エラー
グループとユーザー, [1], [2]
要件, [1]
ハードウェア, [1]
抑制モード
使用する理由, [1]
ら
リカバリ・ファイル
サポートされている記憶域オプション, [1]
例
ASM障害グループ, [1], [2]
レスポンス・ファイル
crs_install.rsp, [1]
dbca.rsp, [1]
enterprise.rsp, [1]
netca.rsp, [1]
Net Configuration Assistant, [1]
Oracle Universal Installerを使用した指定, [1]
一般的な手順, [1]
概要, [1]
コマンドラインで値を渡す, [1]
セキュリティ, [1]
テンプレートでの作成, [1]
パスワード, [1]
レスポンス・ファイル, 「サイレント・モード」を参照
レスポンス・ファイル・モード
概要, [1]
使用する理由, [1]
「レスポンス・ファイル」および「サイレント・モード」を参照, [1]
レスポンス・ファイル・モードでのインストール
oraInst.locファイル, [1]
サイレント・モード, [1]
準備, [1]
レスポンス・ファイル
テンプレート, [1]
ログ・ファイル
インストール時のアクセス方法, [1]
ローリング・アップグレード
ASM, [1], [2]
Oracle Clusterware, [1]
わ
ワークステーション
インストール, [1]
181
Fly UP