FAQ

こちらでは導入、インストールに関するよくある質問とそれに対する答えが読めます。

導入サポートを頼みたい

KAMONOHASHI導入支援を有償にて行っております。 詳しくはサポートページをご覧ください。

自分でインストールする場合まずは何をすればよいですか

  1. インストールガイドを参考に、マシンの準備とKAMONOHASHIのインストールを行ってください。
  2. チュートリアルを一通りやってみてください。
  3. ほかのドキュメントにも目を通してみてください。何か問題がおきたらサポートに質問してみましょう。

外部サービスのバージョンはどれを使えばよいですか

インストールガイドの外部サービスとの互換性から確認することができます。

名前解決をしていない場合はどうすればよいですか

DNSがない場合、構築に用いる各マシンの「/etc/hosts」で名前解決をするように編集してください。

その場合にKAMONOHASHI構築後の既知の問題として、kamonohashiからストレージの名前解決ができないというものがあります。 ワークアラウンドとして、 Admin Guideストレージの項目の「サーバ名URL」が「storage:9000」になっているところを 「:9000」に変更してください。

各マシンにどのようなソフトウェアがインストールされますか

各マシンに配置されるソフトウェアの概要は図のようになっています。 ソフトウェア配置図

ソフトウェア配置図2

コンテナ以外のソフトウェアの詳細は以下の通りです。

KAMONOHASHIシステム管理サーバ

導入SW・パッケージ SW・パッケージ説明 導入理由
kubernetes worker コンテナオーケストレーションツール KAMONOHASHIを利用する上で必須ツール。kubelet,kube-proxy,weave-net,nginx-proxyなど。
docker コンテナ管理ツール KAMONOHASHIでコンテナを利用するために導入します。

Kubernetesマスターサーバ

導入SW・パッケージ SW・パッケージ説明 導入理由
Ansible 構成管理ツール kubernetesの構築で利用するkubesprayが、本構成管理ツールを利用するため導入します。最新バージョンを利用します。
kubernetes worker コンテナオーケストレーションツール KAMONOHASHIを利用する上で必須ツール。etcd,kube-apiserver,kube-scheduler,kube-controller-managerweave-net,nvidia-device-plugin-daemonsetなど。
docker コンテナ管理ツール KAMONOHASHIでコンテナを利用するために導入します。
nfs-common NFSマウントを行うために利用するパッケージ KAMONOHASHI環境で共通で導入します。最新バージョンを利用します。

GPUサーバ

導入SW・パッケージ SW・パッケージ説明 導入理由
nvidia-docker2 nvidia-container-rutime DockerコンテナでNVDIA社のGPUを利用するためのパッケージ コンテナでGPUを利用するために導入します。
NVIDIA GPU Driver OSがGPUを認識するためのパッケージ コンテナでGPUを利用するために導入します。本パッケージは下位互換性があることから、最新バージョンを導入します。
kubernetes worker コンテナオーケストレーションツール KAMONOHASHIを利用する上で必須ツール。kubelet,kube-proxy,weave-net,nginx-proxyなど
docker コンテナ管理ツール KAMONOHASHIでコンテナを利用するために導入します。
nfs-common NFSマウントを行うために利用するパッケージ KAMONOHASHI環境で共通で導入します。GPUサーバ上のコンテナからNFSサーバをマウントするために利用します。最新バージョンを利用します。

オブジェクトストレージサーバ

導入SW・パッケージ SW・パッケージ説明 導入理由
minio Amazon S3互換のAPIを提供し、オブジェクトストレージにアクセスするツール KAMONOHASHIのWebアプリケーションが、NFSサーバにアクセスする際に利用するため導入します。
nfs-common NFSマウントを行うために利用するパッケージ KAMONOHASHI環境で共通で導入します。オブジェクトストレージサーバからNFSサーバをマウントするために利用します。最新バージョンを利用します。