流暢に言葉を操るLLM(大規模言語モデル)ですが、手足を動かすのはとても苦手だといわれています。ネット上に無限にある言葉はいくらでも学習できる一方、手足を動かす学習機会は圧倒的に少なく、どうしても“頭でっかち”になるのだとか。
日立製作所では、手を動かすことに特化した数百万パラメーター規模の小型VLA(視覚言語行動モデル)を開発するとともに、人間の脊髄反射に匹敵する毎秒100回の頻度で細かな指示を出せる技術を開発しました。
ロボットが人の手作業を模倣し、同じように繊細な作業ができるようになる道が開けたと見ています。人が言葉や身振り手振りでロボットに作業を教え、工場や倉庫で人とともに働く姿が見られるかも知れません。(安藤章司)
【記事はこちら】
日立製作所、繊細な作業を行えるフィジカルAIを数百万パラメーターで実現=
https://www.weeklybcn.com/journal/news/detail/20260325_214592.html