目次
@taokiです。
・今回はAWS機械学習サービス「SageMaker(セージメーカー)」を利用した、簡単な画像切り抜きツールの作成方法をご紹介したいと思います。
SageMakerとは
・使ってみた感じでは「数値・画像・文字などの学習データをjupiterマシーンに学習させることにより、AIモデル(※)やAIモデルAPIを生成することができる」がSageMakerの基本サービスかと思います。
※AIモデル・・・データを反復学習し、得られた結果を法則化したもの(だそうです)。
ロゴ
画像切り抜きツール
・今回はピクセル単位で物体ラベリングする、SageMakerのセマンティックセグメンテーション学習法を使います。(以下イメージ)
※クラス分け画像・・・薄いピンクは人間、濃いピンクは馬など、色で物体の種類を区別する。
今回は1500枚弱のクラス分け画像を使います。
ツールのイメージ
・ブラウザ送信画像をAPIが物体検出し、ec2サーバで物体以外を透明にして返します。
ツール作成手順
(A)データ準備
・以下のサイトから学習データ「VOCtrainval_11-May-2012.tar」を取得
サンプル画像
・上記解凍フォルダの「JPEGImages」の中身を以下S3の「train」「validation」へコピー、「SegmentationClass」の中身を以下S3の「train_annotation」「validation_annotation」へコピーする。(トレーニング画像とバリデーション画像は本来は別のものを使うのですが、今回は時短のため同じです)
s3:
//sagemaker-taoki20190323/segmentation/
|- train
|- train_annotation
|- validation
|- validation_annotation
(B)モデル・APIの作成(SageMakerにて)
1)AWSマネジメントコンソール「sagemaker」入力・選択
2)「notebook instance」(jupiterインスタンス)を作成
3)上記インスタンスを開始
4)モデル・API作成プログラムを記入および実行(以下手順)
#SageMakerインポート
‰‰time
import sagemaker
from sagemaker import get_execution_role
role = get_execution_role()
sess = sagemaker.Session()
#学習データ格納するS3バケット・プレフィックスセット
bucket =
'sagemaker-taoki20190323'
prefix =
'segmentation'
#jupiterコンテナイメージ名セット
from sagemaker.amazon.amazon_estimator
import
get_image_uri
training_image = get_image_uri(sess.boto_region_name,
'semantic-segmentation'
, repo_version=
"latest"
)
#学習データ格納するディレクトリ名セット
train_channel = prefix +
'/train'
validation_channel = prefix +
'/validation'
train_annotation_channel = prefix +
'/train_annotation'
validation_annotation_channel = prefix +
'/validation_annotation'
#モデル出力場所セット
s3_output_location =
's3://{}/{}/output'
.format(bucket, prefix)
#インスタンスタイプセット
ss_model = sagemaker.estimator.Estimator(training_image,
role,
train_instance_count =
1
,
train_instance_type =
'ml.p3.2xlarge'
,
train_volume_size =
50
,
train_max_run =
360000
,
output_path = s3_output_location,
base_job_name =
'ss-notebook-demo'
,
sagemaker_session = sess)
#ハイパーパラメータセット
ss_model.set_hyperparameters(backbone=
'resnet-50'
,
algorithm=
'fcn'
,
use_pretrained_model=
'True'
,
crop_size=
240
,
num_classes=
21
,
epochs=
100
,
learning_rate=
0.0001
,
optimizer=
'rmsprop'
,
lr_scheduler=
'poly'
,
mini_batch_size=
16
,
validation_mini_batch_size=
16
,
early_stopping=True,
early_stopping_patience=
2
,
early_stopping_min_epochs=
10
,
num_training_samples=
1464
)
※ハイパーパラメーターの詳細は別途ご確認ください。(内容が難しいので割愛します。。)
#上記でセットしたデータを取りまとめ
s3_train_data =
's3://{}/{}'
.format(bucket, train_channel)
s3_validation_data =
's3://{}/{}'
.format(bucket, validation_channel)
s3_train_annotation =
's3://{}/{}'
.format(bucket, train_annotation_channel)
s3_validation_annotation =
's3://{}/{}'
.format(bucket, validation_annotation_channel)
distribution =
'FullyReplicated'
train_data = sagemaker.session.s3_input(s3_train_data, distribution=distribution,
content_type=
'image/jpeg'
, s3_data_type=
'S3Prefix'
)
validation_data = sagemaker.session.s3_input(s3_validation_data, distribution=distribution,
content_type=
'image/jpeg'
, s3_data_type=
'S3Prefix'
)
train_annotation = sagemaker.session.s3_input(s3_train_annotation, distribution=distribution,
content_type=
'image/png'
, s3_data_type=
'S3Prefix'
)
validation_annotation = sagemaker.session.s3_input(s3_validation_annotation, distribution=distribution,
content_type=
'image/png'
, s3_data_type=
'S3Prefix'
)
data_channels = {
'train'
: train_data,
'validation'
: validation_data,
'train_annotation'
: train_annotation,
'validation_annotation'
:validation_annotation
#モデル作成
ss_model.fit(inputs=data_channels, logs=True)
#API作成
ss_predictor = ss_model.deploy(initial_instance_count=
1
, instance_type=
'ml.c4.xlarge'
)
(C)画像処理の作成(ec2にて)
画像加工イメージ
ツールイメージに併せると以下となります。
コードは以下です。(Python軽量フレームワーク「Flask」)
import
json
import
boto3
import
base64
import
logging
from
flask
import
Flask, request
from
PIL
import
Image
import
numpy as np
import
io
import
cv2
app
=
Flask(__name__)
logger
=
logging.getLogger()
logger.setLevel(logging.INFO)
ENDPOINT_NAME
=
'ss-notebook-demo-2019-09-20-08-51-44-630'
@app
.after_request
def
after_request(response):
# CORS許可
response.headers.add(
'Access-Control-Allow-Origin'
,
'http://taokibacket.s3-ap-northeast-1.amazonaws.com'
)
response.headers.add(
'Access-Control-Allow-Headers'
,
'Content-Type,X-Amz-Date,Authorization,X-Api-Key,X-Amz-Security-Token,X-Requested-With'
)
response.headers.add(
'Access-Control-Allow-Methods'
,
'GET,PUT,POST,DELETE,OPTIONS'
)
response.headers.add(
'Access-Control-Allow-Credentials'
,
'true'
)
return
response
@app
.route(
'/img_data'
, methods
=
[
'POST'
])
def
img_data():
# Base64の画像データ受信してバイナリに変換
img_data
=
json.loads(request.get_data())[
'img'
]
img_data
=
img_data.replace(
'data:image/png;base64,'
, '')
img_data
=
img_data.replace(
'data:image/jpeg;base64,'
, '')
image
=
base64.b64decode(img_data)
with
open
(
'receive.jpg'
,
"wb"
) as f:
f.write(image)
cimg
=
Image.
open
(
'receive.jpg'
,
'r'
)
cimg.save(
'receive.png'
,
'PNG'
)
# 画像判定APIをたたく
client
=
boto3.client(
"sagemaker-runtime"
, region_name
=
"ap-northeast-1"
)
response
=
client.invoke_endpoint(
EndpointName
=
ENDPOINT_NAME,
ContentType
=
'image/jpeg'
,
Accept
=
'image/png'
,
Body
=
image)
# 画像検出結果画像を保存
body
=
response[
'Body'
].read()
with
open
(
'analisys.jpg'
,
"wb"
) as f:
f.write(body)
pil_img
=
Image.
open
(
'analisys.jpg'
,
'r'
)
pil_img.save(
'analisys.png'
,
'PNG'
)
# 検出物体(黒色以外)を白色に変換
org
=
Image.
open
(
'analisys.png'
)
rgb_img
=
org.convert(
'RGBA'
)
trans
=
Image.new(
'RGBA'
, org.size, (
0
,
0
,
0
,
0
))
width
=
org.size[
0
]
height
=
org.size[
1
]
for
x
in
range
(width):
for
y
in
range
(height):
pixel
=
rgb_img.getpixel((x, y))
if
pixel[
0
] !
=
0
and
pixel[
1
] !
=
0
and
pixel[
2
] !
=
0
:
trans.putpixel((x, y), (
255
,
255
,
255
))
continue
trans.putpixel((x, y), (
0
,
0
,
0
))
trans.save(
'mask.png'
)
# 元の画像と物体を白色変換した画像を白色を透明にしつつ合成(重ね合わせる)
im1
=
Image.
open
(
'receive.png'
)
im2
=
Image.
open
(
'mask.png'
)
mask
=
Image.
open
(
'mask.png'
).convert(
'L'
).resize(im1.size)
im
=
Image.composite(im1, im2, mask)
im.save(
'composition.png'
)
# 黒色を透明にする
org
=
Image.
open
(
'composition.png'
)
rgb_img
=
org.convert(
'RGBA'
)
trans
=
Image.new(
'RGBA'
, org.size, (
0
,
0
,
0
,
0
))
width
=
org.size[
0
]
height
=
org.size[
1
]
for
x
in
range
(width):
for
y
in
range
(height):
pixel
=
rgb_img.getpixel((x, y))
if
pixel[
0
]
=
=
0
and
pixel[
1
]
=
=
0
and
pixel[
2
]
=
=
0
:
trans.putpixel((x, y), (
0
,
0
,
0
,
0
))
continue
trans.putpixel((x, y), pixel)
trans.save(
'result.png'
)
with
open
(
'result.png'
,
'rb'
) as f:
result_read
=
f.read()
return
{
'body'
: base64.b64encode(result_read)}
# 検出物体以外が透明になった画像をBase64でフロントへかえす
return
{
'body'
: base64.b64encode(result_read)}
if
__name__
=
=
'__main__'
:
app.run(debug
=
True
, host
=
'0.0.0.0'
, port
=
5000
)
・HTML/Javascriptの作成
一般的なもので作成しました。(説明省略)
ツール実行
やっとツールを試すところまで来ました。ブラウザからページを開き画像を選択して送信します。
⇩
切り抜けた!学習データが少ないせいか細かいところにゴミが残っている感。。学習データを何万枚とかに増やすと精度は上がりそう。SageMakerにラベリングジョブという、世界の方々にラベリングを発注依頼できる元気玉のような機能があるようなので、それを使えばマンパワーで万枚準備できそうです。
他の人も切抜いてみました!
⇩
同じくややゴミが残りますが、、人間として認識しているようです。
【結果】
以上、SageMakerによる画像切り抜きツールのご紹介でした。次回はSageMakerの数値関連によるAIモデルで何か試せたらと思います。閲覧ありがとうございました!
参考URL:https://dev.classmethod.jp/machine-learning/2018advent-calendar-sagemaker-20181201/
- カテゴリー