想像以上にChrome OSの完成度が高くなりすぎて再びキーボード操作体系の重要性が高まってしまっているの何だかなぁと思わなくもないんですよね
スマートデバイス向けアプリの開発者は一度、開発しているスマートデバイス向けアプリでキーボード操作体系を意識しなくても良くなった
PC時代と比較して主な操作体系がタッチスクリーンのみで構成されるスマートデバイス向けアプリはこういう点でも開発者にとって労力軽減になっていた・・・はずだった
しかしChrome OSがAndroidレイヤーの完成度を高め、それを見たM1 MacがiOS/iPadOSレイヤーの完成度を高めようと動き始めてしまったんだなぁ
パソコンでスマートデバイス向けアプリが動くとなればユーザーは間違いなくキーボードでスマートデバイス向けアプリを操作しようとする
しかし多くのスマートデバイス向けアプリは操作体系としてキーボードを捨てていたので、そもそものUI設計がキーボードを想定していないから大問題だ
まさかキーボード操作体系が重要視される時代が来るなんて誰も想定してなかった
Googleもこのあたりの問題をかなり意識していて、わざわざ今回のGoogle I/Oでキーボード(およびMIDIコントローラ)操作体系サポートをピックアップするという動きを見せている
おそらくAppleも次のWWDCでタッチスクリーン以外の操作体系について少なくとも軽く言及はするんじゃないかと思うし、M1 MacのiOS/iPadOSレイヤーをかなり重要視する姿勢を取るのならばスマートデバイス向けアプリ開発者へ強くアピールするものと思われる
Appleの本気度の最大値はProデバイスでのタッチスクリーンサポートだと考えられるので、タッチスクリーンサポートしはじめたらAppleはiOS/iPadOSレイヤーへ本気になってると思って良い
ちなみにオマケだけど今回Chrome OSのAndroidレイヤーが仮想マシン化したんだけど、MIDIコントローラの有線接続の振る舞いがなんだか怪しい、なぜか今まで認識していたのに認識しなくなってしまった
Bluetooth-MIDIでは認識するし、Google I/OでMIDIコントローラをアピールしてたのでバグだと思われる