Androidアプリのカメラのプレビューを画像として取得する方法は?
前回のAndroidのカメラのシャッター音についての続きです。
Androidで、カメラ画像を、takePicture()を使わずに保存する方法です。
色々試してみて、なんとか画像として保存する事に成功したのですが、失敗談も含めて紹介したいと思います。
失敗ケース1 getDrawingCache()
Androidで、画面のスナップショットを画像として保存させるような便利なAPIが存在するのか?という観点で、調べてみました。
すると、以下のようなメソッドがありました。
getDrawingCache()
これは、android.view.Viewクラスのメソッドです。
まず、getDrawingCache()を使ってみたら、nullが返されました。
APIリファレンスを読むと、キャッシュを有効にしなければならない的な説明がありましたので、以下のメソッドを直前に実行させてみました。
setDrawingCacheEnabled(true);
これで、nullではなく、一応はBitmapのインスタンスが返るようになりました。
そのインスタンスを処理して、保存させたんですが、、、真っ黒な画像ファイルでした。
エミュレータでも、Xperiaでも。
APIの使い方として間違っているとは思えなかったんで、カメラのプレビュー以外ならどうなんだろうと思って試してみました。
普通のボタンとかだけを表示させた画面で同じ事をすると、ちゃんとアプリケーションの画像が保存されました。
推論ですが、カメラのプレビューと、普通のViewでは、おそらく表示バッファが違うとかなんかで、、、このgetDrawingCache()では、カメラのプレビュー画像は取得できないんだろうと思い、この方法は断念しました。
失敗ケース2 PreviewCallbackで渡されるバイト配列をそのまま処理
Androidのカメラ機能では、プレビューの処理や写真撮影などの処理を行う際に、コールバックさせるインスタンスを設定することが出来ます。
カメラのプレビュー中、コールバックを設定していれば、逐一コールバックされるのが、PreviewCallbackです。
具体的にいうと、以下のメソッドで設定したコールバックです。
setPreviewCallback (Camera.PreviewCallback cb)
これは、android.hardware.Cameraクラスのメソッドです。
プレビュー処理中、定期的に、引数で設定したPreviewCallback型インスタンスのonPreviewFrame()メソッドがコールされます。
このメソッドの引数として、byte型の配列が渡されてくるのですが、これがプレビュー画像のデータになっているはずです。
ですが、このバイト配列は、そのままだとBitmapに変換出来ません・・・。
例えば、この配列を、以下のようなメソッドに渡すと、nullが返されてしまいます。
decodeByteArray (byte[] data, int offset, int length)
これは、android.graphics.BitmapFactoryクラスのメソッドなんですが、このメソッドでnullが返されるという事は、byte配列が正しいフォーマットではない、という事になります。
スポンサーリンク
成功ケース PreviewCallbackで渡されるバイト配列を加工する
先ほどの方法は、なんとかしてbyte配列を変換してやればいけるはずだ!と信じ込み、もう少し粘って調べてみました。
すると、同じような質問をされているところがありました。
カメラから取得したbyteデータをbitmap化したい
この記事のsaikoroさんが教えてくれている方法でいけます。
PreviewCallback 型インスタンスのonPreviewFrame()と、変換メソッドだけ抜粋します。(これだけでわからない方は、元サイトを参照してみてください。)
public void onPreviewFrame(byte[] data, Camera camera) {
final int width = getWidth(); // プレビューの幅
final int height = getHeight(); // プレビューの高さ
int[] rgb = new int[(width * height)]; // ARGB8888の画素の配列
try {
Bitmap bmp = Bitmap.createBitmap(width, height, Bitmap.Config.ARGB_8888); //ARGB8888で空のビットマップ作成
decodeYUV420SP(rgb, data, width, height); // 変換
bmp.setPixels(rgb, 0, width, 0, 0, width, height); // 変換した画素からビットマップにセット
// ★
} catch (Exception e) {
// エラー
}
}
public static final void decodeYUV420SP(int[] rgb, byte[] yuv420sp, int width, int height) {
final int frameSize = width * height;
for (int j = 0, yp = 0; j < height; j++) {
int uvp = frameSize + (j >> 1) * width, u = 0, v = 0;
for (int i = 0; i < width; i++, yp++) {
int y = (0xff & ((int) yuv420sp[yp])) - 16;
if (y < 0) y = 0;
if ((i & 1) == 0) {
v = (0xff & yuv420sp[uvp++]) - 128;
u = (0xff & yuv420sp[uvp++]) - 128;
}
int y1192 = 1192 * y;
int r = (y1192 + 1634 * v);
int g = (y1192 - 833 * v - 400 * u);
int b = (y1192 + 2066 * u);
if (r < 0) r = 0; else if (r > 262143) r = 262143;
if (g < 0) g = 0; else if (g > 262143) g = 262143;
if (b < 0) b = 0; else if (b > 262143) b = 262143;
rgb[yp] = 0xff000000 | ((r < < 6) & 0xff0000) | ((g >> 2) & 0xff00) | ((b >> 10) & 0xff);
}
}
}
しかし、この記事では、画像を実際に保存するところまでは踏み込んでいません。
上の「★」の部分です。
次回は、私なりに考えた、この保存部分の処理のサンプルをご紹介したいと思います。
⇒Androidアプリのカメラ機能で撮影した画像の保存方法
No commented yet.