Googleが言語障害を抱える人々のためにAIを活用
さまざまな音声を理解できるようにコンピュータを訓練

私たちは周囲の人々とコミュニケーションを取りながら生活しているが、脳卒中、ALS(筋萎縮性側索硬化症)、多発性硬化症、外傷性脳損傷、パーキンソン病など、さまざまな原因から言語障害を抱えて暮らす人もたくさんいる。

Googleはこうした問題を解決するために、「AI for Social Good」プログラムの一部をなす「Project Euphonia」チームがAIを駆使して、うまく発話できない場合のさまざまな音声パターンを理解できるようにコンピュータの性能を向上させているそうだ。

同社は非営利団体「ALS Therapy Development Institute(ALS TDI)」や「ALS Residence Initiative(ALSRI)」と提携し、ALSを抱える人々の声を採取。患者のコミュニケーション・ニーズを把握して、携帯電話やコンピュータが言語障害を持つ人々が話した言葉をより的確に転換できるように、AIベースのアルゴリズムの最適化に取り組んだ。

Googleのソフトウェアで、録音された音声サンプルをスペクトログラム、または音声の視覚的表現に変換。次にコンピュータは、転換されている一般的なスペクトログラムを使用して、この聞きなれない音声をよりよく認識できるようにシステムを訓練。

今回のAIアルゴリズムは、今のところALSを抱える英語話者を想定しているが、今後は他の言語を使う人や他の言語障害にも活用したいとしている。こうした取り組みで、ノーマライゼーションがさらに進むことを期待したい。End