AWS BatchでPandocコンテナイメージを実行する
「ECR(Amazon Elastic Container Registry)にコンテナイメージをアップロードする」でアップロードしたPandocのコンテナイメージを使用してAWS Batchで実行したいと思います。
最終的にはS3にアップロードされたマークダウンからEPUB3への変換を自動化したいと思います。
とりあえず今日はBatchを使って実行できることやコマンドの構成をどのようにしないといけないかを確認します。
目次
AWS Batchで実行するにあたって
まずはこちらの「AWS Batchを使って5分以上かかる処理を実行してみる」が一番うやりたいこに近かったので読みました。
コンテナの中にはgit cloneしてダウンロードしたシェルを実行するシェルを用意しておけば、コードは外部でメンテナンスできます。
ブートストラップのような構成ができそうです。
「Pandocサーバーのコンテナイメージを作成する」で作ったコンテナにシェルを仕込みます。
そのためのAWS CodeCommitの環境も作らないとです。
AWS CodeCommitの設定
[リポジトリの作成]からリポジトリを作成しました。
接続方法は以前と変わってなさそうですので、「AWS Code Commitをプライベートリポジトリとして使う」をご参照いただければ幸いです。
run.shというファイルを作成してコミットしてプッシュしておきました。
S3バケットからinput.mdをダウンロードして、pandocでEPUBに変換してS3バケットにアップロードするだけのテストスクリプトです。
1 2 3 4 5 6 7 8 9 10 11 12 13 |
#!/bin/bash echo 'download start' aws s3 cp s3://bucket_name/input/input.md /tmp/input.md echo 'pandoc start' pandoc -f markdown /tmp/input.md -o /tmp/output.epub echo 'upload start' aws s3 cp /tmp/output.epub s3://bucket_name/output/output.epub echo 'finish!!' |
コンテナイメージへの追加設定
MacのDockerで作業してます。
1 2 |
$ docker run -v /Users/xxx/Documents/docker/pandoc:/tmp -it pandoc /bin/bash |
コンテナを起動してターミナルに入ります。
今回のテストでは、AWS CLIとシェルスクリプトのみを使いますが、最終的にはPythonを使うことになりそうなので環境を作っておきます。
イメージのOSがAmazon Linux2だったのですが、すでにPython2.7は入っていました。
1 2 3 4 5 6 7 8 |
# yum install -y python3 # pip3 install awscli # pip3 install boto3 # yum install -y git # yum install -y vim # mkdir /usr/local/pandoc # vim /usr/local/init.sh |
/usr/local/init.sh
1 2 3 4 5 6 7 8 9 10 11 |
#!/bin/bash echo 'init start' CODE_REPO=https://git-codecommit.us-east-1.amazonaws.com/v1/repos/repos_name echo 'clone start' git clone --config credential.helper='!aws --region us-east-1 codecommit credential-helper $@' --config credential.UseHttpPath=true $CODE_REPO /usr/local/pandoc echo 'run exe' sh /usr/local/pandoc/run.sh |
このシェルスクリプトも「AWS Batchを使って5分以上かかる処理を実行してみる」を参考に、というかほぼそのままです。
IAMロールでAWS CodeCommitにgitコマンド実行できるのって、セキュアですっごくいいですね。
1 2 |
# exit |
コンテナを抜けてローカルへ戻りました。
1 2 3 4 |
$ docker ps -a 38e10a07f143 pandoc "/bin/bash" 19 seconds ago Exited (0) 4 seconds ago compassionate_wilson $ docker commit 38e10a07f143 pandoc |
docker ps コマンドで設定したコンテナのIDを確認して、docker commitコマンドでイメージのアップデートをしました。
そして、「ECR(Amazon Elastic Container Registry)にコンテナイメージをアップロードする」の手順でECRのイメージを上書きしました。
AWS Batchの設定
[今すぐ始める]ボタンから初回実行ウィザードを起動しました。
すべてをデフォルトでとりあえず設定しました。
作成するとジョブが送信されてEC2インスタンスが起動していたので終了しました。
AWS Batchで作成されたジョブ定義、ジョブキュー、コンピューティング環境は削除しました。
IAMの設定
2つのIAMロールが出来ているのでこちらを使います。
* AWSBatchServiceRole
* ecsInstanceRole
AWSBatchServiceRoleはそのまま使いました。
ecsInstanceRoleには、CodeCommitの該当のリポジトリと、対象のS3バケットへの権限を追加しました。
あとスポットインスタンスを使いたいので、Amazon EC2 スポットフリートロールの手順で、AmazonEC2SpotFleetRoleを作成しました。
VPC
今回の環境用にVPCを作成しました。
S3にアクセスするのでインターネットゲートウェイをアタッチして、全AZにパブリックサブネットを作成しました。
セキュリティグループは1つ作成し、インバウンドは拒否、アウトバウンドは許可、のデフォルトのままにしました。
サブネットは作成後に[アクション]-[自動割り当てIP設定の変更]をONにしておきました。
そうしないと、今回の構成ではVPC内で起動してきたコンテナがS3やCloudWatch、CodeCommitにアクセスできないです。
ジョブ定義
設定したのはジョブ名、コンテナイメージ、コマンド、vCPUs、メモリです。
コンテナイメージはECRのURIを設定しました。
コマンドはコンテナで実行するコマンドです。
コンピューティング環境
サービスロール、インスタンスロールはウィザードで作成された、以下のロールを指定しました。
* AWSBatchServiceRole
* ecsInstanceRole
一応キーペアも選択しておきました。
コンピューティングリソースでは、スポットインスタンスを使用したいので、スポットフリートロールはあらかじめ作成していたAmazonEC2SpotFleetRoleを指定しました。
上限入札価格はオンデマンドインスタンスの100%にしました。
ネットワーキングではあらかじめ作成しておいたVPC、サブネット、セキュリティグループを指定しました。
ジョブキュー
コンピューティング環境に紐付けてジョブキューを作成しました。
成功しました!!
S3バケットに変換されたEPUBファイルができました。
CloudWatchにも実行ログが出力されていました。
最初はVPCのサブネットでパブリックIPアドレスの自動割り当てをしてなかったので、CloudWatchにログが書き出されなくて何がいけなのかわからずに少し悩みました。
これでマークダウンからEPUBへ変換する環境ができました。
実行後少しすると、コンテナを動かしていたEC2インスタンスも終了されました。
最後までお読みいただきましてありがとうございました!
「AWS認定資格試験テキスト&問題集 AWS認定ソリューションアーキテクト - プロフェッショナル 改訂第2版」という本を書きました。

「AWS認定資格試験テキスト AWS認定クラウドプラクティショナー 改訂第3版」という本を書きました。

「ポケットスタディ AWS認定 デベロッパーアソシエイト [DVA-C02対応] 」という本を書きました。

「要点整理から攻略するAWS認定ソリューションアーキテクト-アソシエイト」という本を書きました。

「AWSではじめるLinux入門ガイド」という本を書きました。


開発ベンダー5年、ユーザ企業システム部門通算9年、ITインストラクター5年目でプロトタイプビルダーもやりだしたSoftware Engineerです。
質問はコメントかSNSなどからお気軽にどうぞ。
出来る限りなるべく答えます。
このブログの内容/発言の一切は個人の見解であり、所属する組織とは関係ありません。
このブログは経験したことなどの共有を目的としており、手順や結果などを保証するものではありません。
ご参考にされる際は、読者様自身のご判断にてご対応をお願いいたします。
また、勉強会やイベントのレポートは自分が気になったことをメモしたり、聞いて思ったことを書いていますので、登壇者の意見や発表内容ではありません。
ad
ad
関連記事
-
-
Kinesis Data Analyticsの検索結果をKinesis Data FirehoseからS3バケットに保存する
Kinesis Data AnalyticsをKinesis Data Stre …
-
-
Amazon CodeCatalystのスペースとプロジェクトを作成してみました
Amazon CodeCatalystはIAMユーザーで操作するのではなく、AW …
-
-
Amazon Pinpoint Workshopの1(Eメール)
Amazon Pinpoint Workshop ここ数年、AWS re:Inv …
-
-
Amazon ECSサービスでAWS App Meshを使用
AWS App MeshユーザーガイドのAWS App Mesh とAmazon …
-
-
Lambdaバージョンとエイリアスとトリガー
Lambdaのバージョン、エイリアスにはそれぞれ別のトリガーが設定できます。 上 …
-
-
東京リージョンの1つのAZ(apne1-az2)でt3.nanoスポットインスタンスが拒否されちゃいました
拒否されちゃいました ちょっとした検証をしようとしてて、t3.nanoのスポット …
-
-
Rocket.ChatをAmazon EC2 Ubuntuサーバーで起動
こちらRocket.Chatを1行でAWS上に導入を参照させていただきました。 …
-
-
ヤマムギ vol.8 (AWS)EC2でLinuxサーバー構築ハンズオン 手順
ヤマムギとは from Mitsuhiro Yamashita 「AWSではじめ …
-
-
サービスディスカバリを使用してECSサービスの作成
ECSデベロッパーガイドのチュートリアル:サービスディスカバリを使用して、サービ …
-
-
RDS自動バックアップの自動クロスリージョンコピー
このブログのRDS for MySQLはAWS Backupで大阪リージョンから …