2023.03.22 あいおいニッセイ同和損保 AIで衛星画像を解析、地域別建物損害額を3日で可視化 事故受付後の修理業者の早期手配を実現

あいおいニッセイ同和損保は2月27日、国立大学法人広島大学(越智光夫学長)と研究を進めている人工衛星などから地球の表面を観測・解析する「リモートセンシング」技術と、建物被害AI自動判読技術を組み合わせ、地域別に建物損害額を最短3日で可視化する取り組みを2023年度より開始すると発表した。被災地域の人工衛星画像や航空写真から各地域の建物損害額を推計する取り組みは世界初(あいおいニッセイ同和損保調べ)。人工衛星画像や航空写真が得られた台風被災地域では、事故受付から損害調査開始までの平均日数を7日短縮できるほか、優良住宅修理業者の手配による養生・修理着工の早期化、また提携する自治体との情報共有による罹災証明書の手続き迅速化支援などに活用するとしている。

あいおいニッセイ同和損保は、水害による損害調査ではリモートでの損害確認などを展開し、迅速な保険金支払体制を構築してきた。一方、強風による屋根の損害は家屋ごとに高所での被害確認が必要であり、大規模災害時には調査に平均1カ月を要するなど、さらなる効率的・迅速な調査体制の確立が求められていた。
同社と広島大学は、21年3月から台風等の強風被害に関する共同研究を進め、人工衛星などから地球の表面を観測・解析する「リモートセンシング」技術を活用し、22年5月に台風による建物被害額を地域別に推計・可視化する手法を開発した。今回、この手法と同大学の三浦弘之准教授が開発した建物被害AI自動判読技術を組み合わせた新たな損害調査手法を開発した。
「リモートセンシング」技術を活用した広島大学との共同研究では、台風による主要被災地域の人工衛星画像や航空写真を解析し、東西2キロメートル・南北1.5キロメートルのメッシュごとの建物推計損害額が、火災保険損害割合と高い相関を示す成果を得ているという。また、建物被害AI自動判読技術は、被災地域の航空写真から建物の被害程度を自動的に判別するもので、倒壊した建物、無被害または屋根が一部損傷した建物、屋根の全部または一部がブルーシートで覆われた建物を自動判別する手法を確立している(屋根が一部損傷したもののブルーシートが無い建物など、難易度の高い判別は高解像度の画像を用いた深層学習での検証を予定)。
新たな取り組みでは、被災地域の衛星画像や航空写真を入手後、最短3日で地域別の建物損害額を把握し、あいおいニッセイ同和損保の顧客を含む被災地域の住民の復旧支援に活用する。①陸上からは撮影困難な屋根の被害状況を把握→主要被災地域における損害調査の効率化→保険金支払迅速化②ブルーシートによる養生が必要な地区を把握→養生にも対応する優良な住宅修理業者を紹介→養生・修理着工の早期化③浸水発生時の画像があれば浸水地域も把握→主要被災地域における損害調査の効率化→保険金支払迅速化―といった取り組みイメージが示されている。
取り組み開始時期は23年度以降で、激甚災害指定相当の強風被害や、震度6弱以上の地震被害が複数地域で確認された場合、該当地域の衛星画像または航空写真を入手し解析結果を活用する。
屋根瓦は台風に限らず地震の揺れによる被害も発生しやすく、台風・地震発生後は、降雨・降雪による二次被害を防ぐため専門業者によるブルーシートを用いた養生作業が必要となる。そこで、ブルーシートも識別する建物被害AI自動判読技術によって養生作業の進捗把握・養生業者の早期手配・着工の迅速化を目指すなど、グループ事業会社間でこの取り組みの共同利用等も検討する。