
[Flutter] Firebase Cloud FunctionsとCloud Vision APIを使って画像のテキスト検出をしてみた
2023.07.14
今回やったこと
Flutterアプリで画像の文字認識をしたいと思い、Firebase Cloud FunctionsとColoud Vision APIで使ってOCRアプリを作ってみました。
実際に作成したアプリとしては、カメラで撮った画像をFirebase Cloud Functionsを通してCloud Vision APIにリクエストし、検出した文字を次の画面に表示するといったものです。
使用したもの
- Firebase Authentication(匿名認証のみ)
- Firebase Cloud Functions
- Cloud Vision API
- camera(Flutterのカメラパッケージ)
デモ
環境
- macOS: Venture 13.4
- プロセッサ: Intel
- Xcode: 14.3.1
- Android Studio: Dolphin (2021.3.1)
- Flutter SDK: 3.7.8
アプリの実装
手順
- プロジェクトの作成
- Firebaseの導入
- Google Cloudの導入
- Firebase Cloud Functions側の実装
- Flutter側の実装
- 動作確認
プロジェクトの作成
Flutterプロジェクトの作成をします。
私の場合、FVMでFlutter SDKのバージョンを管理しているため、以下のコマンドでプロジェクトを作成しました。
1 2 3 4 | ~$ mkdir ocr-app ~$ cd ocr-app ~/ocr-app$ fvm use {使用したいバージョン} --force ~/ocr-app$ fvm flutter create . --project-name ocr_app --platforms android,ios -e |
Firebaseの導入
ドキュメントを参考にFirebaseを導入していきます。
今回使用するFirebaseのプラグイン
今回使用するFirebaseのプラグインはAuthenticationとCloud Functionsです。
以下のドキュメント内容を参考に、AuthenticationとCloud Functionsを使ってCloud Vision APIを呼び出すように実装していきます。
アプリから Google Cloud API を呼び出すには、認可を処理し、API キーなどのシークレット値を保護するための中間 REST API を作成する必要があります。次に、モバイルアプリでこの中間サービスに対する認証と通信を行うためのコードを記述します。
この REST API を作成する方法の一つとして、Firebase Authentication と Functions を使用する方法があります。この方法では、Google Cloud API に対するサーバーレスのマネージド ゲートウェイが提供され、そこで認証が処理されます。このゲートウェイは、事前構築された SDK を使用してモバイルアプリから呼び出すことができます。
Firebase Auth と Functions を使用して Cloud Vision で画像内のテキストを安全に認識する(Apple プラットフォーム)
コマンドラインツールのインストール
Firebase CLIをインストールします。
Firebase CLIをインストールする方法はいくつかあるのですが、今回はnpmでインストールをしました。
npmでインストールする場合は以下のコマンドを実行します。
1 | ~$ npm install -g firebase-tools |
これにより、グローバルに使用できるfirebaseコマンドが有効になります。
次に以下のコマンドを実行し、Firebaseにログインします。
1 | ~$ firebase login |
私の場合、以前ログインしたことがあり、Already logged in as 〇〇@gmail.com
と表示されましたが、まだの方は流れに沿ってログインします。
Firebaseにログインできたら次に、任意のディレクトリで以下のコマンドを実行してFlutterFire CLIをインストールします。
任意のディレクトリで実行とのことなので、ホームディレクトリ(~)で以下のコマンドを実行しました。
1 | ~$ dart pub global activate flutterfire_cli |
ここまでで必要なコマンドラインツールのインストール完了です。
Firebaseの構成ファイルを作成
次のコマンドでアプリの構成ワークフローを実行します。
1 | ~/ocr-app$ flutterfire configure |
コマンド実行時に、既存のFirebaseプロジェクトを選択するか、Firebaseプロジェクトを新規作成する必要があります。
新規作成する場合は、一意のプロジェクトIDを入力する必要があり、すでに存在するIDだと作成が失敗してしまいます。
コンソールから新規プロジェクトを作成すると自動でIDが決定するので、コンソールで作成するのが個人的にオススメです。
上記コマンドを流れに沿って進めると、Firebaseの接続に必要なファイルがプロジェクトに追加されます。
使用するFirebaseのプラグインをインストール
FlutterアプリをFirebaseプロジェクトに接続するためのFirebase Core
ユーザー認証するためのFirebase Authentication
Cloud Vision APIを呼び出すために使用するFirebase Cloud Functions
以上の3つをFlutterプロジェクトにインストールしていきます。
以下のコマンドを実行して各プラグインをインストールします。
1 | ~/ocr-app$ flutter pub add firebase_core firebase_auth cloud_functions |
次に以下のコマンドでFirebaseの構成ファイルを更新します。
1 | ~/ocr-app$ flutterfire configure |
今回のアプリでは匿名認証を行うのため、Firebaseコンソールから匿名認証を有効化します。
コンソールのAuthenticationを開き、ネイディブのプロバイダの匿名を選択します。
トグルボタンを有効にして保存し、匿名認証を有効化します。
アプリでFirebaseを初期化
main関数でFirebase.initializeAppを定義し、Firebaseを初期化します。
1 2 3 4 5 6 7 8 9 10 | import 'package:firebase_core/firebase_core.dart'; import 'package:ocr_app/firebase_options.dart'; void main() async { WidgetsFlutterBinding.ensureInitialized(); await Firebase.initializeApp( options: DefaultFirebaseOptions.currentPlatform, ); runApp(const MainApp()); } |
Firebase Cloud Functionsの初期化
ドキュメントを参考に、以下のコマンドでFirebase Cloud Functionsを初期化します。
1 | ~/ocr-app$ firebase init functions |
コマンドを実行すると、オプションの選択が求められます。
まず、既存のプロジェクトを使用するか、新規プロジェクトを使用するかなどを選択します。
今回の場合、すでにプロジェクトがあるので、既存のプロジェクトを選択し、今回のプロジェクトを選択します。
次に、Cloud Functionsで使用する言語を選択します。
JavaScriptとTypeScriptとPythonが選択でき、今回はTypeScriptを選択しました。
次にESLintを使用するかと、npm installを実行するかを聞かれたので、どちらもYを入力しました。
以上で実行が完了すると、プロジェクトにfunctionsディレクトリが作成されます。
Cloud Vision APIの有効化
Cloud Vision APIを使用するためには、Blaze料金プラン(従量課金制)にFirebaseプロジェクトをアップグレードする必要があります。
Cloud Vision APIは1000ユニット/月まで無料で使用できますが、1000ユニットを超えると1000ユニット単位で$1.5料金が発生するのでご注意ください。
※1つの画像に対してテキスト検出を行うと1ユニットがカウントされます。
Blaze料金プランにアップグレードするため、FirebaseコンソールのFirebase ML の[APIs]ページを開きます。
ページを開いたら、アップグレードボタンからBlaze料金プランへアップグレードを行います。
アップデートができたら、CloudベースのAPIを有効化のトグルが表示されるのでONにします。
次に上記手順で作成されたAPIキーのアクセスを制限します。
Cloudコンソールの認証情報ページを開きます。
ページを開いたら、キーを制限を選択し今回使用するCloud Functions APIとCloud Vision APIを選択して保存します。
以上でCloud Vision APIの有効化完了です。
Google Cloudの導入
以下のドキュメントを参考にCloud Vision APIを導入します。
gcloud CLIをインストール
プラットフォーム別にパッケージのファイルが用意されているので、自身のプラットフォームにあったファイルをダウンロードします。
ダウンロードしたファイルをホームディレクトリ(~)で開きます。
次に以下のコマンドでインストールスクリプトを実行し、gcloud CLIツールをPATHに追加します。
1 | ~$ sh ./google-cloud-sdk/install.sh |
流れに沿ってコマンド実行が完了すると、gcloudコマンドが使用可能になります。
次に以下のコマンドでgcloud CLIを初期化します。
1 | ~$ gcloud init |
流れに沿ってコマンド実行が完了すると、Google Cloud SDKが使用可能になります。
Vision APIの有効化
以下のコマンドを実行し、Vision APIを有効にします。
1 | ~$ gcloud services enable vision.googleapis.com |
クライアントライブラリをインストール
Cloud Vision APIのライブラリをインストールします。
今回、Firebase Cloud FunctionsではTypeScriptを使用しているので、以下のコマンドを実行しNode.jsのライブラリをインストールします。
1 | ~/ocr-app/functions$ npm install --save @google-cloud/vision |
Firebase Cloud Functions側の実装
以下のドキュメントを参考にFirebaes Cloud FunctionsでCloud Vision APIにリクエストする関数を実装していきます。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 | import vision from "@google-cloud/vision"; import * as functions from "firebase-functions"; const client = new vision.ImageAnnotatorClient(); export const textDetection = functions.https.onCall(async (data: Buffer, context) => { // ユーザー認証されていない場合、エラーを返す if (!context.auth) { throw new functions.https.HttpsError( "unauthenticated", "ユーザー認証されていません" ); } try { const request = { image: { content: data, }, }; // 画像のテキスト検出をリクエスト const result = await client.textDetection(request); const fullText = result[0].fullTextAnnotation?.text; return fullText; } catch (error) { if (error instanceof Error) { throw new functions.https.HttpsError( "internal", error.message ); } else { throw new functions.https.HttpsError( "unknown", "不明なエラー" ); } } }); |
このコードでは、ImageAnnotatorClientを使用して画像のテキスト検出を行う関数を定義しています。
引数のdataでは、リクエスト時に必要な画像のデータ(Buffer)を受け取るようにします。
contextのユーザーの認証情報を使用し、ユーザーの認証がされていない場合、認証エラーを返します。
画像のテキスト検出が成功した場合、fullTextAnnotation.textで検出結果を取り出して返します。
エラーを返す時にHttpsErrorをスローしていますが、FunctionsではHttpsErrorをスローすることによりアプリ側でエラーの詳細を取得できるようになります。
HttpsErrorは引数のcodeにFunctionsのエラーコード、messageに文字列、オプションでdetails?に任意の値を設定することができます。
HttpsError以外をスローすると、エラーのcodeにinternal、messageにINTERNALが設定されたエラーが返されます。
※Functionsのエラーコード
Flutter側の実装
カメラで撮影した画像のテキスト検出をし、次の画面で検出結果を表示するアプリを実装していきます。
カメラ画面の作成
以下のドキュメントを参考にカメラ画面を作成します。
まず以下のコマンドでカメラパッケージをインストールします。
1 2 | ~/ocr-app$ flutter pub add camera ~/ocr-app$ flutter pub get |
次にiOSとAndroidそれぞれの設定をしていきます。
iOSではInfo.plistにNSCameraUsageDescriptionを設定します。
NSCameraUsageDescriptionにはアプリがデバイスのカメラへのアクセスを要求している理由を設定します。
設定するとカメラアクセスの許可を求めるダイアログに設定した文字が表示されます。
今回は使用しないのですが、マイクを使用する場合はNSMicrophoneUsageDescriptionも設定します。
NSMicrophoneUsageDescriptionにはアプリがデバイスのマイクへのアクセスを要求している理由を設定します。
1 2 3 4 | <key>NSCameraUsageDescription</key> <string>写真を撮影するためにカメラを利用します</string> <key>NSMicrophoneUsageDescription</key> <string>録音するためマイクを利用します</string> |
Androidではandroid/app/build.gradleのminSdkVersionを21に設定します。
1 | minSdkVersion 21 |
各プラットフォームの設定ができたので、カメラ画面を作成します。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 | import 'package:camera/camera.dart'; import 'package:flutter/material.dart'; import 'package:ocr_app/annotate_image_repository.dart'; import 'package:ocr_app/read_result_screen.dart'; class CameraScreen extends StatefulWidget { const CameraScreen({super.key}); @override State<CameraScreen> createState() => _CameraScreenState(); } class _CameraScreenState extends State<CameraScreen> with WidgetsBindingObserver { CameraController? _cameraController; double get previewHeight => _cameraController!.value.previewSize!.height; double get previewWidth => _cameraController!.value.previewSize!.width; bool isLoading = false; @override void initState() { super.initState(); _initializeCameraController(); } Future<void> _initializeCameraController() async { // 利用可能なカメラの一覧を取得 final cameras = await availableCameras(); // 外カメを取得 final camera = cameras.first; // 外カメ、利用可能な最高の解像度、録音OFFでCameraControllerを作成 _cameraController = CameraController( camera, ResolutionPreset.max, enableAudio: false, ); // カメラを初期化 await _cameraController?.initialize(); setState(() {}); } @override void didChangeAppLifecycleState(AppLifecycleState state) { if (!(_cameraController?.value.isInitialized ?? false)) { return; } if (state == AppLifecycleState.inactive) { _cameraController?.dispose(); } else if (state == AppLifecycleState.resumed) { _initializeCameraController(); } } @override void dispose() { _cameraController?.dispose(); super.dispose(); } @override Widget build(BuildContext context) { final isPortrait = MediaQuery.of(context).orientation == Orientation.portrait; return Stack( children: [ Scaffold( body: !(_cameraController?.value.isInitialized ?? false) ? Container() // 縦横比を保ったまま、画面最大まで拡大 : SizedBox.expand( child: FittedBox( fit: BoxFit.contain, child: SizedBox( width: isPortrait ? previewHeight : previewWidth, height: isPortrait ? previewWidth : previewHeight, child: CameraPreview(_cameraController!), ), ), ), floatingActionButton: FloatingActionButton( onPressed: () { // TODO: 画像を撮影と検出した文字を次の画面に表示する処理を実装 }, child: const Icon(Icons.camera_alt), ), ), if (isLoading) const ColoredBox( color: Colors.black38, child: SizedBox.expand( child: Center( child: CircularProgressIndicator(), ), ), ) ], ); } } |
このコードでは、cameraControllerの初期化とプレビューの表示をしています。
Future<void> _initializeCameraController()では、利用可能なカメラの一覧を取得し、外カメ、最高の解像度、録音OFFでCameraControllerを作成します。
Widget build(context)では、cameraControllerが初期化されている場合、縦横比を保ちながら画面最大まで拡大したプレビューを表示します。
注意点としては、高さと幅を指定する時に、画面の向きからPreviewSizeの高さと幅を切り替えているところです。
このようにしている理由は、CameraPreviewが画面の向きからPreviewSizeの向きを変えているためです。
以下はCameraPreviewの実装です。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 | class CameraPreview extends StatelessWidget { ... @override Widget build(BuildContext context) { return controller.value.isInitialized ? ValueListenableBuilder<CameraValue>( valueListenable: controller, builder: (BuildContext context, Object? value, Widget? child) { return AspectRatio( aspectRatio: _isLandscape() ? controller.value.aspectRatio : (1 / controller.value.aspectRatio), child: Stack( fit: StackFit.expand, children: <Widget>[ _wrapInRotatedBox(child: controller.buildPreview()), child ?? Container(), ], ), ); }, child: child, ) : Container(); } ... bool _isLandscape() { return <DeviceOrientation>[ DeviceOrientation.landscapeLeft, DeviceOrientation.landscapeRight ].contains(_getApplicableOrientation()); } ... } |
実装を見ると、aspectRatioを画面の向きによって変えていることがわかります。
このことから、横に長いの長方形(PreviewSize)を縦画面の時には縦向きで表示し、横画面の時はそのまま横向きで表示しているような内部実装になっていることが考えられます。
ですので、それに合わせてCameraPreviewを表示する時にも、画面の向きからSizedBoxの高さと幅を切り替えています。
カメラ画面ができたので、main.dartを修正して初期画面でカメラ画面を表示するよう修正します。
今回はOcrAppというStatelessWidgetを作成し、MaterialAppのhomeでCameraScreenを定義しています。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 | import 'package:firebase_core/firebase_core.dart'; import 'package:flutter/material.dart'; import 'package:ocr_app/firebase_options.dart'; import 'camera_screen.dart'; void main() async { // Firebaseを初期化 WidgetsFlutterBinding.ensureInitialized(); await Firebase.initializeApp( options: DefaultFirebaseOptions.currentPlatform, ); runApp(const OcrApp()); } class OcrApp extends StatelessWidget { const OcrApp({super.key}); @override Widget build(BuildContext context) { return const MaterialApp( home: CameraScreen(), ); } } |
撮影した画像のテキスト検出
以下のドキュメントを参考にテキスト検出をリクエストし、検出したテキストを表示する画面を作成します。
まず始めにテキスト検出をリクエストする部分の実装をしていきます。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 | import 'dart:typed_data'; import 'package:cloud_functions/cloud_functions.dart'; import 'package:firebase_auth/firebase_auth.dart'; class AnnotateImageRepository { final auth = FirebaseAuth.instance; final functions = FirebaseFunctions.instance; Future<String?> textDetection(Uint8List data) async { // ユーザー認証がされていない場合、匿名認証を行う if (auth.currentUser == null) { await auth.signInAnonymously(); } // 画像データをテキスト検出する final result = await functions.httpsCallable('textDetection').call(data); return result.data; } } |
このコードでは、テキスト検出をリクエストするtextDetectionという関数を実装しています。
リクエスト時には、ユーザー認証をしておく必要があるので、ユーザー認証がまだされていない場合、匿名認証をします。
ユーザー認証ができたら、Functionsで作成した関数(textDetection)を呼び出し、テキスト検出をリクエストします。
次に検出した文字を表示する画面を実装します。
今回は、読み込んだテキストを画面中央に表示する画面を作成しました。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 | import 'package:flutter/material.dart'; class ReadResultScreen extends StatelessWidget { final String? text; const ReadResultScreen({super.key, required this.text}); @override Widget build(BuildContext context) { return Scaffold( appBar: AppBar(title: const Text('読み取り結果')), body: SafeArea( child: Center( child: Padding( padding: const EdgeInsets.all(24.0), child: Text( text ?? '読み込んだ文字がありません', ), ), ), ), ); } } |
最後にカメラ撮影をするボタンの処理を実装します。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 | floatingActionButton: FloatingActionButton( onPressed: !(_cameraController?.value.isInitialized ?? false) ? null : () async { setState(() { isLoading = true; }); final repository = AnnotateImageRepository(); // 撮影 final imageXFile = await _cameraController!.takePicture(); // プレビューを一時停止 await _cameraController!.pausePreview(); // 撮影した画像データをUint8Listに変換 final buffer = await imageXFile.readAsBytes(); // テキスト検出をリクエスト final text = await repository.textDetection(buffer); setState(() { isLoading = false; }); if (context.mounted) { // 結果画面に遷移 await Navigator.of(context).push( MaterialPageRoute( builder: (context) => ReadResultScreen(text: text), ), ); // プレビューを再開 await _cameraController!.resumePreview(); } }, child: const Icon(Icons.camera_alt), ), |
このコードでは、画像データのテキスト検出をリクエストし、成功時に検出結果を渡して結果画面に遷移をしています。
まず_cameraController!.takePicture()でカメラ撮影をします。
次に撮影した画像をreadAsBytes()でUint8Listのデータに変換し、repository.textDetectionでテキスト検出をリクエストします。
リクエストが成功したら、Navigatorのpushで検出結果を渡して結果画面に遷移します。
動作確認
以下のコマンドを実行し、Functionsの関数をデプロイします。
1 | ~/ocr-app/functions$ firebase deploy --only functions |
デプロイが完了したら、アプリを起動して確認します。
おわりに
今回、Cloud Vision APIを使ってOCRアプリを作ってみましたが、実装していく中でカメラプレビューのレイアウト調整が難しいなと感じました。
Flutterでは、ネイティブの画面を表示することもできるらしいので、ネイティブでカメラ画面を実装してみてFlutterに表示することにもチャレンジしてみたいです。
また、テキスト検出のレスポンスは、どう扱うかが大変そうだなと思いました。
レスポンスには、ページ、ブロック、段落、単語、改行の情報が含まれるのですが、どこでブロックが分かれるかなどわからないので、欲しい情報をどう取り出すかが難しそうだなと思いました。
Vision APIはこちらで簡単に試すことができるので、気になる方は試してみてください。
書いた人はこんな人

- 業務ではiOS開発に携わらせていただいています。
まだまだ分からないことだらけで、日々分からないことと戦いながら仕事をしている者です。
ブログ記事は暖かい目で見ていただけるとありがたいです。