Opt Technologies Magazine

オプトテクノロジーズ 公式Webマガジン

JSAI2023イベントレポート

alt

JSAI2023のイベントレポートです。

あいさつ

こんにちは。AIソリューション開発部の中西(@yukari-n)です。
昨年の秋までは別の部署で社内向けの広告管理ツールを開発していましたが、現在は広告効果予測モデルの開発を行っています。

2023年6月6日〜9日に開催された人工知能学会全国大会(JSAI2023)に参加しました。
今年も現地(熊本)とオンラインのハイブリッド開催で、私はオンラインで参加しました。
本記事では興味深かった講演を中心に紹介します。

昨年のレポートはこちら。

アートにおいても敗北しつつある人間〜人の美意識もAIにハックされるのか?〜

  • 企画オーガナイザ: 中川 裕志(理化学研究所革新知能統合研究センター)、武田 英明(国立情報学研究所)、大屋 雄裕(慶應義塾大学法学部法律学科)、高橋 未玲(CuePoint)

昨今話題のAIと著作権に関する企画セッションでした。
絵画を描く上で創造的な工程はどの部分なのか、というミニトークから始まり、今後アートがどうなっていくのかの予想まで、広大な話題で大変おもしろかったです。

一口に「絵」と言ってもファインアート(美術)とイラストレーションがあり、後者は実用的なものを指します。
例えば広告のバナーに使われる絵は「イラストレーション」であり、これらはイラストレーターに都度依頼(指示)して制作してもらうか、素材集として作り置かれたものから選んでバナーを制作します。
現状の生成AIはプロンプト(指示)を受け取って(人間のために)画像を生成するため、アートではなくイラストであると言えるでしょう。

生成AIに対する、絵を描く人々からの反発も多く見られます。しかし、こういった反発は写真が登場したときにも起こっており、その結果写実的な絵画の価値が薄れ、代わりに印象派など新しい表現が生まれました。
今後同様にアートの純粋化が起こったり、AI自身がアートを評価し創造する……といった意見もありました。
そうなったときに人間のアートや美意識がどうなってしまうのか、正解はその時が来るまでわかりませんが、とても興味深い議論でした。

AIにおけるトラスト

  • 講演者: 中川 裕志(理化学研究所・革新知能統合研究センター・チームリーダー / 東京大学・名誉教授)

AIの法規制

AIによって出された結果をどこまで信用して良いのか、そもそもAIをどうやって定義すればすれば良いのかなど、AIの利用についての社会的共通認識や法整備などは道半ばです。
本講演では、まずAIトラストにかかるEUの法制度について紹介がありました。
EUの法律は、EU加盟国だけでなく、実質的に全世界的なルールとなることが多く(例: GDPR)、誰もが無関係ではありません。

EUのAIを規制する法案(Artificial Intelligence Act)は6月14日に可決されました。
EU AI ActではAIのリスクを

  • 許容できないリスク
  • ハイリスク
  • 限定リスク
  • 最小リスク

の4つに分類し、「許容できないリスク」のAIは使用が禁止されました。
どういったものが含まれるかというと、「公共の場による生体認証」「法執行機関などが行う感情認識」「(年齢・障害などによる)差別」「予測的取り締まりシステム」などが該当します。
(可決後に作成された日本語の資料が入手できなかったため、厳密な定義は原文をご参照ください。)

また、ハイリスク・限定リスクのAIについても、利用に当たっては条件や義務が発生します。
EU内向けのAIサービスを提供する場合は、EU外の開発者にも適用されるので、どのようなものが該当するのか、各自確認したほうが良さそうです。

自律的アバターのトラスト

後半はAIが人間の代理エージェントとなる場合、人間がAIをトラストできるのか、その逆は? というテーマでした。
自律的なアバターと聞くとイメージしづらいかもしれませんが、私達が既にインターネット上のSNSやサービスで(場合によってはリアルとは違う人格を作って)行っているようなことを、AIに任せて色々やってもらう、ということのようでした。

現状のインターネットでのコミュニケーションでも、2方向のトラストが存在します。
例えばネットショッピングであれば、

  • ちゃんとお金を払ってくれるか?(販売者→購入者)
  • ちゃんと商品を届けてくれるか?(購入者→販売者)

という2方向です。しかし間にAIが購入者の代理人として入ることで、トラストは4方向に増えます。
AIアバターがそれを利用する本人の意図に反して勝手なことをしたり、他人に乗っ取られたり、といったことを監視する別のAIが必要になってくるかもしれません。

乗っ取りやなりすましなどは既存のシステムでも問題になりますが、自律的に動くアバターは本人の死後も動き続ける可能性があります。
実運用に当たっては、先述の法令を遵守する必要があるとともに、AIアバターが行った行動についての免責条項などを定めておかないといけないかもしれない、といった話がありました。

解釈可能な機械学習

  • 講演者: 吉川 友也(千葉工業大学 人工知能・ソフトウェア技術研究センター 上席研究員)

AIの透明性と解釈性に関する社会からの要求により、解釈可能な機械学習の必要性は高まっています。
また、AIを用いた予測においては、入力データが持っていたどの特徴がどのように予測に効いたのかが解れば、効果的なアウトプットの再現性が高まるため、ここでも機械学習の解釈性が重要です。

本講演では、代表的な説明手法として事後説明器などの説明の他、説明の定量的な評価方法、説明手法を使う上で気をつけたいことなどについての話がありました。
注意点としては

  • 説明が常に予測モデルの振る舞いを反映するとは限らないこと
  • 説明が人間にとって解りやすいとは限らないこと
  • 説明器によっては予測精度に影響を与えること
  • 説明を悪用される場合があること

などが挙げられました。

いっそAIのための説明を行って、それによってモデルの精度を向上させる、という手法の話もあり、興味深かったです。

弊社社員の発表

私はスケジュールの都合で見れなかったのですが、弊社のDyがCTR効果予測に関する研究発表を行いました。

詳細は後日、このTech Magazineに日本語の解説記事を公開予定です。

まとめ

ハイブリッド開催は大きな通信不備等も無く、オンラインでも快適に参加することができました。
しかし、他社様の企業展示を見るのを楽しみにしていたのですが、なかなかZoomに担当者の方がいらっしゃらず、結局見れなかったのが残念でした。

私は今回が初めてのJSAI参加で、講演系を主に視聴しましたが、今後も参加する機会があれば、次は一般セッション中心に見て回りたいです。
来年のJSAI2024は浜松での開催が予定されています。

Opt Technologies ではエンジニアを募集中です。カジュアル面談も可能ですので、下記リンク先よりお気軽にご応募ください。