NHKは毎年5―6月にかけて東京・砧の放送技術研究所(技研)を一般公開している。今年は6月1―4日まで「技研公開2023」を開催し、「メディアを支え、未来を創る」をテーマに、「イマーシブメディア」「ユニバーサルサービス」「フロンティアサイエンス」の3つの領域の研究成果14項目を展示した。
「民放online」では会場を取材し、その中から「ユニバーサルサービス」に含まれるアクセシビリティー支援技術としての展示内容を中心に紹介する。
今回は▷手話CG翻訳・生成技術▷日英機械翻訳システム▷解説音声制作・配信技術の3つが展示された。
手話CG翻訳・生成技術は、システムに入力した日本語テキストを手話に翻訳し、CGアニメーションを生成する。すでに天気や気温など定型文で伝えられる気象情報の手話はウェブサイトで提供しているが、より幅広い内容に対応するサービスを目指している。2025年にニュース速報の一部の自動生成を目指すとしている。
日英機械翻訳システムは、災害などの緊急時に、総合テレビの特設ニュースの日本語字幕から英語字幕を自動生成する。現在、インターネットでライブ配信しており、緊急時のリポートや電話取材などの話し言葉の字幕翻訳の精度を向上させた。
解説音声制作・配信技術は、視聴覚障がい者などの番組視聴を支援するもので、スポーツ中継の解説音声を制作、サーバーを通じて配信し、スマートフォンのアプリで利用できるシステムが紹介されていた。会場では、野球中継の映像によるデモンストレーションが行われた。解説音声のもとになる情報は、中継の画面スーパーで表示されている得点やアウトカウント、球速などを文字認識システムから収集するほか、投げる、打つといった選手の動きは骨格の動きを解析した動作認識をもとに生成される。アナウンサーが実況で伝えている打球が飛んだ方向や、代打などの情報は並行してオペレーターが手入力で対応する。解説音声は男女の声や再生速度、発話量などをアプリ上で操作することができる。
また、フロンティアサイエンスの展示のひとつの「画像解析AIによる番組映像自動要約システム」は、Twitterなどに投稿するショート動画の制作支援技術。システムに番組映像をアップロードし、▷「ドキュメンタリー」▷「ロケ番組」▷「NHKスペシャル風」――といったジャンルと作成する動画の時間を設定することで、重要シーンの構図やカメラワークの特徴を学習した画像解析AIが、要約動画を自動で生成する。生成にかかる所要時間は、30分の映像の場合15分程度だという。生成された動画はシステム上で簡単に編集ができる。この技術を応用した「ニュース番組自動要約システム」はすでに実用化され、札幌、金沢、徳島、熊本の各放送局などのTwitterでニュース番組の要約動画が展開されている。
災害時だけではなく、日常のスポーツ中継でもアクセシビリティー支援の技術開発が進められていることは、放送の公共性を示すとともに、AIを活用した番組自動要約システムは働き方改革の面でも可能性を感じた。
このほか、テレビ放送70周年記念展示として、NHKが報じてきたさまざまな出来事の写真や映像とともに当時使用していたカメラなどの機材の一部を展示した。