もう、だいぶ昔のことになりますが、狭心症の治療を受けたことがあります。ですので、この記事には強く惹かれました。まあ、日本人の死因で「心疾患」は2位で年間18万人にも達しますから、私に限らず、気になる人は多いことでしょう。これです。

上記Futurismの元記事は「Alexaがあなたの呼吸音を聞いて心臓発作に気づく」というMITテクノロジーレビューの最新記事です。

それによると、この新ソフトは、米・シアトルにあるワシントン大学の研究者、医師たちのグループが開発したもので、心不全の初期症状の喘ぎ声、ゼイゼイという声、専門家はagonal breathingというそうですが、それをAlexaを搭載したスマートスピーカーまたはスマホのマイクが集音、新しいアルゴリズムで解析すると97%の正確さで、「心臓発作だ」と判定し、自動的に、日本の119にあたる911に電話して救急車を呼んでくれるという夢のような話です。

agonal breathingというのは、脳に酸素が行かなくなると生じる呼吸音のようで、これを研究グループは、ワシントン州キング郡の911にかかってきた緊急電話の録音からこれを抽出して、マシン・ラーニングでシステムを作り上げたとのことです。

でも、イビキや無呼吸睡眠に伴うノイズと混同することはないのか?それについて、グループは35人のボランティアと12人のイビキをかいたり無呼吸睡眠症状のある入院患者から得た睡眠時の呼吸音で検証したところ、false positive rate(偽陽性率)つまり、この場合は誤まって「心臓発作だ」と判定した率はボランティアグループで0.2%、患者グループで0.1%だったということです。

また、最大6メートル離れていても97%の確率で聞き分けるのだそう。部屋の片隅にスマートスピーカーを設置しておけばいいということですね。

そうなると、1日も早く実用化が期待されますが、専門誌「Digital Medicine」に6月19日付けで載ったワシントン大学のグループの論文では「これはプロトタイプであり、まだproof of concept(概念実証)段階だ」と述べています。

その理由として、「集めたanagol breathingは一つの地理的コミュニティに限定されており、世界中の911にかかってきたものを解析する必要があるかもしれない」としているほか、病気を持つ人、様々な薬を服用している場合はどうか、さらにプロトタイプでは寝室という比較的雑音の少ない環境での使用を想定したが、その他の環境ではどうか、などなど様々な課題があることを認めています。

とすると、実用化まではしばらくかかりそう。加えて、それが解決に向かっても、もう一つの問題、プライバシーはどうなるか、ということも浮上しそうです。

というのも、スマートスピーカーに内蔵されたAlexaは、通常はユーザーが呼びかけることで起動するのですが、心臓発作を探知するためには、スマートスピーカーやスマホのマイクを常時オンの状態にしておかねばなりません。ということは、家族との会話を含む全ての生活音が、外部にダダ漏れ?になるということかもしれませんので。

なので、研究グループのリーダーJustin Chanさんは「大規模に使われる前にやらねばならないことは山ほどある」と語ったということですが、このチャンさん、実はワシントン大学博士課程3年目の学生なのです。

未来は若者が開くんですねえ。時間と体力はある。頑張って!