AppleはWWDC22で、Appで使用する機械学習モデルに関する「What's new in Create ML」を公開した。
新しいモノリシックなタスクの下支えを公開する基盤技術「Create ML Components」により完全にコントロールでき、カスタムパイプラインを作成して柔軟性を高めることができる。
Create MLアプリで作成した機械学習モデルを用いた判定を、連携カメラを使用してiPhoneのカメラを使ってテストを行うことが可能。
今回の野菜のモデル機械学習データにより、これはピーマン、これはトマトですといった、ラベル付けされたデータセットに対する学習済みモデルの振る舞いをより深く理解することができる。
Create MLフレームワークは、macOS Mojave、iOS 15、iPadOS 15で利用可能だが、その一部「Creating a Model from Tabular Data」をtvOS 16でも利用可能になる。
プログラムインタフェースは、開発時にモデルの作成を自動化できるだけでなく、ユーザーの入力やデバイス上の行動から直接学習する動的な機能構築をサポートし、ユーザーのプライバシーを保護しながらパーソナライズされた適応的な体験を提供可能になる。
タスクのサポートはプラットフォームごとに異なるので注意が必要だ。
自分のアイデアをこれらのCreate MLの定義済みタスクのいずれかにマッピングするには「Create ML Components」を導入する。
Create ML Componentsは,Create MLの基本的なビルディングブロックを公開するもので、これらを組み合わせることで、ユースケースに合わせてカスタマイズされたパイプラインとモデルを作成できる。
Create MLに搭載された反復練習のカウント機能を使用し、特定のダンスの動きに対して判定を行うといったことが可能になる。
Copyright (C) 1998 Mac Treasure Tracing Club. All rights reserved.
Special
PR