説明可能AI入門 - 人とAIが共存する未来に向けて -

説明可能AI入門 - 人とAIが共存する未来に向けて -

人とAIが共存する未来のために必要な技術「説明可能AI」について,わかりやすく解説。

ジャンル
発行年月日
2026/02/16
判型
A5
ページ数
240ページ
ISBN
978-4-339-02954-3
説明可能AI入門 - 人とAIが共存する未来に向けて -
在庫あり
2営業日以内に出荷致します。

定価

4,180(本体3,800円+税)

カートに入れる

購入案内

  • 内容紹介
  • まえがき
  • 目次
  • レビュー
  • 著者紹介
  • 広告掲載情報

著者はこれまでに、特に企業との共同研究や技術相談において、深層学習などのブラックボックス系機械学習の人への説明の必要性・重要性を認識し、それらの解決方法について研究してきました。また、説明可能AI(XAI)に関する技術セミナーや講演をこれまでに何度も担当してきました。この度、本書を執筆する機会を得て、どのような内容にするべきかについて考えました。

ご存じのように、昨今のAIは進展が非常に速く、最新の手法もすぐに陳腐化してしまうため、最新情報をご紹介するだけのような内容は、増刷のときにだけ内容を更新できる書籍という媒体では難しいと感じました。また、逆に、ときを経てもあまり変わらない基礎数学・理論、普遍的な方法などについては、AIの分野でもこれまでに多くの良書が出版されてきています。そこで本書は、出版社の方々ともご相談の上、「説明可能AI(XAI)」について、陳腐化しない基本的な考え方と重要な手法をご紹介するとともに、AIの基礎や関連テーマ、生成AIやLLMなどの最近の話題も入れて、AIの入門書・参考図書としてご利用いただけるようにしました。そして、「AIを作る立場の方」だけでなく、ご専門はAIではないがAIやXAI、人とAIの関わり方にご関心をおもちの「AIを利用する立場の方」にも広く読んでいただけるようにしました。

解説する内容にも独自性が出るように心がけました。一般に「説明可能AI(XAI)」は「深層学習などのブラックボックス系機械学習の判断根拠や機序を人が分かるように説明する分野」とされています。一方、サポートベクタマシンや決定木など、人が理解し易いグレーボックス/ホワイトボックス系機械学習の精度が深層学習と同じくらい高精度になれば、そもそも膨大な学習用データを必要とする深層学習を利用する必要がなくなります。そこで著者は、XAIを「AIの説明性かつ/または精度を高めることで、人がAIを信頼して利用できるようにする技術」と通常より少し広くとらえて、関連する話題とともに本書にまとめました。

大学や専門学校などでの基礎的な講義の教科書・副読本、あるいは研究室やゼミなどでの参考書としてご利用し易い構成にするとともに、各章に演習問題と参考文献を入れています。理系の研究者や技術者の方々はもちろん、いわゆる文系の方々にもご利用頂けるような内容を目指しました。

本書が、学校や職場、グループなど様々な場面でAIやXAI、人とAIの関わり方などを議論する際の「きっかけ」や、何かのご参考になれば幸いです。

人工知能(AI)は,いまやテレビやインターネットなどのメディアにそのワードが登場しない日がないほど注目されており,われわれの日常に必要不可欠なものになっている。特に,深層学習(ディープラーニング)登場以降におけるAIの技術革新は目覚ましく,画像・音声の認識や生成,そして自然言語による検索や質問応答の発展に,世の中の多くの人々が驚かされている。今後,人が現在行っている仕事の多くをAIが担うようになり,人がAIに支配される危うい未来社会も垣間見えているため,AIの機能の現状や開発動向,発展の方向性を,人々は大きな関心をもって注視している。

本書は,大学教員である筆者がこれまでに企業の技術者や一般の方々,学生向けに行ってきたAI,特に説明可能AI(XAI)に関する多数の招待講演や技術セミナー,講義,ゼミなどで話した内容を易しくまとめた講義録である。これまでにAIの方法論に関する多くの教科書や図書が国内外問わず出版されてきたが,その多くがAIの理論・原理・機能・特徴・処理などを解説する「AI技術者のための参考書」であった。これらに対して本書は,「AIの利用者の立場になってAIを考える」ことをコンセプトに,従来とは異なる視点からの解説を試みている。特に,人とAI・機械が共存共栄することができる明るい未来社会を作るために必須の技術である「人にAIの考え方を理解してもらうことを目指すXAI」,「人とAIをともに進化させることを目指す共進化AI(CAI)」やAIの将来展望に力点を置いて解説している。

XAIは,企業でAIを利用する際のリスクヘッジのために必須の技術である。仮に処理を説明できない深層回路で人を検知する処理を搭載した自動車が人身事故を起こした場合,ブラックボックスの処理を搭載した責任を企業側が負わされる可能性が高い。すなわち,企業では機械学習,特に深層学習によって構築された処理・回路の判断根拠や機序(処理手順)を人に説明する義務と責任があるのである。このため,本書はAI関連の技術者だけではなく,AIに関わる仕事をしているすべての人々にとって参考となる書籍だと考えている。このため,解説にあたって難しい数式は極力使用せず,直感的に理解できる解説に努めている。

本書は「AIの入門書」でもあり,大学・専門学校における「人工知能概論」のような一般教養科目・専門基礎科目の講義や,研究室などでの少人数のゼミの副読本として利用いただくことも想定している。このため,各章の最後に演習問題をつけているので,受講生や参加者の方々の議論のきっかけとして利用していただければ幸いである。自分で何かを調べたり,提案したりするような,正解がない問題も多いが,巻末に解答例をつけたので参考にしてほしい。

本書では,まず前半の章でAIや機械学習の考え方や発展の様子,昨今のAIの中心的な手法である深層学習の理解に必要なニューラルネットワークの基礎などについて解説したあと,XAIの考え方について紹介する。続いて,深層学習によって作られる深層回路の説明性を向上させることを主眼とした方法を複数紹介し,つぎに深層学習以外の機械学習の有用性を向上させるための精度向上技術について述べる。さらに,CAIや,現在盛んに議論されている生成AIについて検討したあと,最後にAIの今後の発展の方向性について考える。

本書がAIをどのように捉え,どのように発展させるべきか,そしてどうすれば人とAI・機械が共存共栄することができる明るい未来社会を作ることができるのかについて考える際の参考になれば幸いである。

末筆ながら,執筆にあたってコンセプト作りや記述内容について随時貴重なアドバイスをくださったコロナ社の皆さまに心より御礼申し上げる。

2025年12月
長尾智晴

〈第1部:人工知能と機械学習〉

1.人工知能と機械学習
1.1 人工知能の概論 
 1.1.1 人工知能とは何か 
 1.1.2 定式化された問題の解法 
 1.1.3 人工知能のアプローチの変遷 
 1.1.4 人工知能の解法の例 
1.2 機械学習の概要 
 1.2.1 機械学習とは何か 
 1.2.2 事例ベース学習と説明ベース学習 
1.3 人工知能の課題 
演習問題

2.機械学習の方法
2.1 機械学習の概論 
 2.1.1 機械学習の目的 
 2.1.2 機械学習の種類と特徴 
 2.1.3 特徴空間 
2.2 教師あり学習法 
 2.2.1 教師あり学習の課題 
 2.2.2 サポートベクタマシン 
 2.2.3 決定木 
 2.2.4 ブースティング 
 2.2.5 ランダムフォレスト 
2.3 教師なし学習法 
 2.3.1 教師なし学習の課題 
 2.3.2 k-平均法 
 2.3.3 自己組織化マップ 
2.4 半教師あり学習法 
 2.4.1 半教師あり学習の課題 
 2.4.2 基礎的な手法 
演習問題

3.ニューラルネットワークと深層学習
3.1 ニューラルネットワークの概論 
 3.1.1 神経細胞と回路網のモデル化 
 3.1.2 相互結合型NN 
 3.1.3 階層型NNの原理 
 3.1.4 階層型NNの学習の特徴 
 3.1.5 時系列信号向けの階層型NN 
3.2 深層学習の原理と特徴 
 3.2.1 多層化技術 
 3.2.2 深層学習の長所・短所 
 3.2.3 深層学習の応用例 
3.3 深層学習の最近の手法 
 3.2.1 生成AIの手法 
 3.2.2 大規模言語モデルとトランスフォーマ 
演習問題

4.説明可能AIとは
4.1 人による理解について 
 4.1.1 人が物事を理解・納得するということ 
 4.1.2 感性の工学的な取り扱いについて 
 4.1.3 他分野での関連話題 
4.2 説明可能AI 
 4.2.1 説明可能AIの定義 
 4.2.2 説明可能AIの意義と必要性 
 4.2.3 説明可能AIから共進化AIへ 
4.3 説明性・精度から見た機械学習の分類 
 4.3.1 基本的な考え方 
 4.3.2 ブラックボックス系機械学習の説明性向上 
 4.3.3 グレー・ホワイトボックス系機械学習の精度向上 
演習問題

〈第2部:深層回路の説明可能AI〉

5.特徴量・内部状態の可視化
5.1 深層回路の特徴量の可視化 
 5.1.1 深層回路における特徴量生成 
 5.1.2 深層回路の内部状態の可視化 
 5.1.3 内部状態の可視化手法の例 
5.2 特徴空間に基づくデータ解析 
 5.2.1 入力データの特徴解析 
 5.2.2 オートエンコーダやCAEを用いた異常検知 
5.3 特徴空間を用いた学習データの水増し 
 5.3.1 特徴空間の理解 
 5.3.2 CGによる水増しと特徴空間を用いた画質変換 
演習問題

6.判断根拠の可視化
6.1 入力変数・特徴量の重要度解析 
 6.1.1 入力変数・特徴量の重要度について 
 6.1.2 相関係数に基づく重要度 
 6.1.3 決定木における属性の重要度 
 6.1.4 LIME 
 6.1.5 SHAP 
6.2 画像認識の判断根拠の可視化 
 6.2.1 サリエンシーマップとアテンション 
 6.2.2 CAM・Grad-CAMなど 
 6.2.3 GCM 
 6.2.4 画像の判断根拠領域の可視化の評価方法 
6.3 時系列信号の判断根拠の可視化 
 6.3.1 時系列信号の分類タスク 
 6.3.2 シェープレッツを用いた判断根拠の説明 
 6.3.3 CFを用いた判断根拠の説明 
演習問題

7.回路構造の軽量化・最適化
7.1 基礎的な軽量化手法 
 7.1.1 基本的な考え方 
 7.1.2 プルーニング 
 7.1.3 結合荷重の量子化の検討 
7.2 深層回路の構造と結合荷重の最適化 
 7.2.1 最適化問題としての深層回路の学習 
 7.2.2 確率緩和と連続緩和 
7.3 進化計算法による構造最適化 
 7.3.1 進化計算法によるニューラルネットワークの最適化 
 7.3.2 深層回路の構造最適化 
 7.3.3 NAS 
7.4 深層回路の線形和への構造変換 
 7.4.1 NAM 
 7.4.2 特徴選択付きNAM 
 7.4.3 線形回路化による機序の説明 
演習問題

8.知識の転用・流用・代替
8.1 転移学習と蒸留 
 8.1.1 ニューラルネットワークや深層回路における「知識」とは 
 8.1.2 転移学習 
 8.1.3 知識蒸留 
8.2 入力情報の代替と浸透学習法 
 8.2.1 浸透学習法の基本的な考え方 
 8.2.2 関連する入力情報の代替技術 
 8.2.3 浸透学習法の原理と方法 
8.3 浸透学習法の応用 
 8.3.1 時系列信号の将来変動予測 
 8.3.2 入力変数の究極の削減 
演習問題

〈第3部:深層回路以外の機械学習の改善〉

9.特徴量の最適化と機序の説明
9.1 機械学習モデルの選択と改善 
 9.1.1 機械学習モデルの選択方法 
 9.1.2 少数データに対する機械学習 
9.2 サポートベクタマシンなどの特徴量の最適化 
 9.2.1 教師あり学習における特徴量 
 9.2.2 進化計算法による特徴量の最適化 
 9.2.3 前処理の最適化による特徴量の改善 
9.3 決定木の機序の説明 
 9.3.1 決定木の説明性について 
 9.3.2 決定木やEDENの機序の言葉による説明 
演習問題

10.処理の自動構築
10.1 アルゴリズムやプログラムの自動生成 
 10.1.1 基本的な考え方 
 10.1.2 自動プログラミングの研究分野 
10.2 進化計算法を用いた処理やプログラムの自動構築 
 10.2.1 進化計算法を用いた処理の自動構築 
 10.2.2 進化計算法を用いたプログラムの自動構築 
 10.2.3 遺伝的アルゴリズムによる処理の自動構築 
 10.2.4 遺伝的プログラミングによる処理の自動構築 
10.3 処理の自動構築の今後 
 10.3.1 生成AIによるプログラムの自動生成の今後について 
 10.3.2 最適化によるプログラムの自動生成の今後について 
演習問題

〈第4部:人工知能と説明可能AIの今後の展望〉

11.生成AIの説明性について
11.1 生成AIの説明性向上に必要な技術 
 11.1.1 求められる解析技術 
 11.1.2 必要な解析技術に関する補足説明 
11.2 画像系生成AIの説明性 
 11.2.1 画像系生成AIの原理と特徴 
 11.2.2 画像系生成AIの説明性について 
 11.2.3 画像系生成AIの有効な利用方法 
11.3 テキスト系生成AIや大規模言語モデルの説明性 
 11.3.1 言語モデルと大規模言語モデル 
 11.3.2 テキスト系生成AIの説明性について 
 11.3.3 テキスト系生成AIの有効な利用方法 
演習問題

12.人工知能と説明可能AIの今後の展望
12.1 人工知能の今後の展望 
 12.1.1 事例ベース学習の効率化・自動化 
 12.1.2 事例ベース学習から説明ベース学習へ 
 12.1.3 ニューラルネットワークの進化 
 12.1.4 人工知能の集団化による機能の拡張 
12.2 説明可能AIの今後の展望 
 12.2.1 人による人工知能の教育 
 12.2.2 「人工脳科学」の必要性について 
 12.2.3 八百万AIとは? 
演習問題

付録 進化計算法の概要
A.1 進化計算法の基礎 
 A.1.1 基本的な考え方と発展の経緯 
 A.1.2 例題による進化計算法の原理の理解 
 A.1.3 遺伝的アルゴリズム 
A.2 進化計算法のさまざまな手法 
 A.2.1 遺伝的プログラミングとCGP 
 A.2.2 進化型多目的最適化 
 A.2.3 進化計算法と機械学習 
 A.2.4 進化計算法の今後について 

引用・参考文献
演習問題解答例
索引

読者モニターレビュー【 いたち 様(業界・専門分野:評価装置メーカー)】

本書籍は、非常に分かりやすく丁寧に書かれておりました。
私個人のおすすめとしては、AIをこれから仕事に使う方への導入本として非常に最適だと思います。
本書籍は多彩なイラストで、分かりやすく記載されています。内容も浅くなく実用的な考え方が記載されており、「AIにはどういうものがあって、それぞれどう作られており、どういったものが得意で課題を持ち合わせているか」という内容がしっかり書かれていると思います。
私自身なんとなくAIが分かるレベルでしたが、本書籍で単語や考え方を学ばせて頂き、非常に有意義な書籍だと思います。

読者モニターレビュー【 たか 様(業界・専門分野:制御工学(産業応用))】

AIをツールとして用いる学生や,特に社会人にとっては,深層回路などの学習器がどのような処理をしたのか,を知ることは非常に重要であろう.本書では,AIの判断根拠などを示す手法である説明可能AI(XAI)や人とAIを共に進化させる共進化AI(CAI)について述べられており,これらの内容に関して知見を広めたいと考えている人たちに是非推薦したい一冊である.また,まえがきに記述のある通り,AIの説明性を理解すると同時に,AIの入門書としても適している書籍である.数式よりも,図などを用いた説明に重点が置かれており,内容も理解しやすいと思われる.XAIについて知りたい人のみならず,AIに関して知りたいと思う人にもお勧めしたい一冊である.

本書の大きな特徴は次の二点である.一つ目の特徴は,理解を深めやすい章構成である.まず第一章では,人工知能の概要から説明が始まる.複雑な数式を用いることなく,パーセプトロンから近年のトレンドとなっている手法までのアプローチの変遷や,AIの課題などが述べられる.その後,従来の機械学習手法やAIに関する説明を経てXAIなどの内容が始まるため,理解を深めることができる.本書を通して読むことで,AIなど機械学習の内容から,XAIの考え方,実用面や今後の展望まで広い知見を得られるであろう.二点目は,生成AIや大規模言語モデルなど,近年のトレンドとなっている内容にまで触れられている点である.生成AIなどは現在開発途上であるが,本書では説明性の観点から,それら手法の注意点が述べられている.他にも,アクティブラーニングなど様々な手法に関して触れられている.これらの内容を取り扱う第四部を読むことで,最近のトレンドである内容に関する知見を深めつつ,説明性という重要な要素を把握できると考えられる.

読者モニターレビュー【 山口 直彦 様 東京国際工科専門職大学(業界・専門分野:情報工学)】

世の中の多くの人は、「銀行のATMがどのようなしくみで動いているのか」を理解しなくても、引き出したい金額(入力)と出てきた現金(出力)が合っていれば特に困りません。しかし銀行員の立場で考えると話が変わってきます。銀行員にとってはお金の出入りが1円でもずれてしまったら大問題ですから、ATMが「どのような処理をしているのか」「正当な手続きを経て処理が行われているのか」が明確に確認できないと困ってしまいます。

これと同じような図式が、人工知能の世界でも起こっています。世の中の多くの人は「与えた入力に対して、それらしい出力が得られれば良い」と思うかもしれませんが、「なぜその出力に至ったのか」がわからないと困ってしまう人がいるという事です(例えば人工知能がレントゲン写真を見て「ここが悪いから切除すべき」と診断したとしても、なぜその診断に至ったのかという根拠がわからなければ、医師は手術をためらうでしょう)。

本書は、判断過程が人間に理解できる人工知能(説明可能AI)を構築するためのノウハウが集められた本です。現在流行しているディープニューラルネットワーク(DNN)は強力な性能で目覚ましい成果を挙げている反面、原理上どうしても内部の挙動がブラックボックスになりがちです。そのためこの本はまず、DNNだけではない様々な人工知能アルゴリズムについて概要を解説した後「(DNNではない)中身の分かりやすい人工知能アルゴリズムが使えないか検討する」「性能を保ったままできるだけ構造のシンプルなアルゴリズムを構築する」「どうしてもDNNが必要な時に、ブラックボックスを紐解くためのツールを使う」という流れで説明可能AIを構築する手法を解説してくれます。説明可能AIに関心がある人だけでなく、人工知能をチューンアップして軽量高速にしたい人にも役立つ内容がたくさん含まれている本です。

また大きな特徴として、それぞれのアルゴリズムを説明する図が素晴らしく良くできています。言葉だけではわかりにくい処理のイメージを、的確な図でわかりやすくしめしてくれています。

注意点として、本書は様々なノウハウを網羅的に紹介している分、各アルゴリズムの詳細については深入りしていません。ある種のカタログとして本書で概要をいったんつかみ、さらに詳しい内容が必要な時は参考文献を追って学んでいくという使い方が良いでしょう。

レビュー,書籍紹介・書評掲載情報一覧

長尾 智晴

長尾 智晴(ナガオ トモハル)

東京工業大学工学部の助手、東京工業大学大学院総合理工学研究科・知能システム科学専攻の助教授を勤めた後に横浜国立大学に異動し、現在は横浜国立大学総合学術高等研究院の上席特別教授・YNU人工知能研究拠点長として特に産官学連携に注力しています。本学の教員や研究室と共同研究・技術相談などをご希望の企業の方は、本学の研究推進機構(下記リンク)にご相談下さい。私は幼い頃にテレビで見たSFアニメや特撮番組に影響を受けて科学技術に興味をもち、登場する未来的なメカを自分がいつか作りたいと思いました。その後、ロボット本体からロボットの視覚、ロボットの頭脳(人工知能)へと関心の中心が移って現在に至ります。これまでに多くの企業と共同研究を行なうとともに、AI系の大学発ベンチャーを起業して取締役CTOを務めるなどAI技術の産業応用に力を入れています。

掲載日:2026/02/10

「計測と制御」2026年2月号

掲載日:2026/02/01

電子情報通信学会誌2026年2月号

掲載日:2026/01/28

facebook広告「説明可能AI入門」(2026年1月28日)

掲載日:2026/01/01

電子情報通信学会誌2026年1月号