前回は、AVFoundationを使ってリアルタイムに画像を取り込み、Core ML+Visionで物体検出を行うアプリを試作しました。
今回は、リアルタイム画像取り込みの部分をARKitに変更し、検出した物体の情報を物体の近くに表示することで、よりARらしい表現になるようにアレンジしてみました。
前回は、AVFoundationを使ってリアルタイムに画像を取り込み、Core ML+Visionで物体検出を行うアプリを試作しました。
今回は、リアルタイム画像取り込みの部分をARKitに変更し、検出した物体の情報を物体の近くに表示することで、よりARらしい表現になるようにアレンジしてみました。
すっかり機械学習のビッグウェーブ(?)に乗り遅れているのですが、Core MLで少しは機械学習をかじった気になろうという企み。
Appleのサイトで紹介されている公式サンプルと機械学習モデルを参考に、アレンジを加えたアプリを試作してみました。
ここ最近、某iOSアプリ案件を一緒に進めているパートナー会社のエンジニアさんを、技術面で少しだけサポートさせていただいたりしています(知ってる範囲で質問に答えるだけですが)。
で、その某iOSアプリ案件、AWSとの連携があるかも…という流れになってきました。僕の担当パートではないのですが、多少興味もあったことからAmazon S3へファイルをアップロードするiOSアプリを試作してみました。
試作アプリはGitHubにアップしていますので、誤りとか、もっと良い方法とかあれば、フィードバックをいただけると嬉しいです。
以下、試作アプリをつくった手順について、簡単に解説していきます。