<< TOPへ
Acoustic-sensing-based Gesture Recognition Using Hierarchical Classifier
・17種類のジェスチャーを、テーブルと指の摩擦音などで分類する研究。2020年。
・特徴量の検討も細かいが、このジェスチャーに特化した分類器の設計を具体的に検討されていて面白い。分類すべきデータの特徴に合わせた(カスタマイズした)分類器の組み合わせの試みが新鮮だった。
・自然でユビキタスな方法での入力、とのことで、ユビキタスって言葉を久々聞いた
・使っているセンサはマイクと圧電センサー。この組み合わせは低コストのシステムを達成することであると書いてある。
・単一の分類器と階層的分器をテストして、階層的が良いと言う判断がストンと納得した。判断の根拠が図6の表。混乱行列という日本語が正しいかわからないけど、分類が難しいものはグルーピングしている。時間の関係でその後の処理は詳しく追えなかったけれど、Micro-CVのRFによる階層構造で最も高い精度を実現したらしい
・今回ジェスチャーをもとに分類器を検討したけれど、ターゲットユーザーと適合する分類器を検討することも良いのか。ピンと来なかったけど、前者は一般的な傾向による、後者は具体個別な傾向をもとに検討するってことなので、納得
・ほか、Conclusionでは操作環境もジェスチャーパターンに影響を与えるので検討課題と。
・ジェスチャーを行う場合の視覚障害者のメリットを考えたのだけど、そもそもキーボード入力の方が文字入力は便利だろうから、それ以外の点を考えなければならない。そうなると、PCをON/OFFすることなど家電の操作の観点なのかな。もしくは、ブラウザのマウスジェスチャーによるところかな。
・具体的案な良案がないので、今後Webアクセシビリティとの掛け合わせがあれば、また考えてみよう。
http://tuat-dlcl.org/tag/classifier-selection/
https://sensors.myu-group.co.jp/sm_pdf/SM2317.pdf