レビュー,書籍紹介・書評掲載情報
-
-
データ科学のための基礎数理 - 情報数理・確率統計・パターン認識 -
データサイエンスの土台を築くために欠かせない情報数理に焦点を当て,パターン認識や機械学習の本質を学ぶために必要な内容に絞って丁寧に解説。データサイエンスを学び始める際にはもちろん,基礎を再確認するためにも最適な1冊。
- 発行年月日
- 2023/10/06
- 定価
- 3,960円(本体3,600円+税)
- ISBN
- 978-4-339-02937-6
レビュー,書籍紹介・書評掲載情報
-
読者モニターレビュー【 N/M 様(業界・専門分野:総合情報学[情報科学])】
掲載日:2023/09/29
本書は,データ科学(データサイエンスやデータエンジニアリングなど)の分野を学ぶ上で必要な基礎的な数学的な理論(情報数理)を学ぶための書籍である.
すべての章を詳細にレビューすると膨大な量になるため,3章,8章〜12章を中心に気になった点についてレビューさせていただく.
前提知識としては,大学の学部レベルの線形代数(ベクトル),微分積分学の知識がないと,数式を読み解くことが困難な箇所(1章,2章)があるように思われた.著者の方の講義で使用される利便性から,このような章構成になっていると思われるが,そういった上記の理由からも,1章,2章は難易度が少し高いこともあるので,もう少し後ろの章でも良かったのではないかとも個人的には感じた.
8章では,情報科学分野を学ぶ上での定番である,基数変換から始まり,補数,シフト演算,ディジタルの世界での文字表現(Shift-JIS,UTF-8など)などについての解説がなされている.
9章〜11章では,専門分野的には「情報理論」や「符号理論」と呼ばれる学問領域である.学生時代,情報理論に関しては選択科目としてカリキュラムに組まれていたこともあり学習済みの事項が多く見受けられたので,理解は比較的にしやすかったように思われる.3章に登場する確率論の知識が必要になってくる(特に,条件付き確率)ので,そちらを学んでから読まれることをオススメする.
9章では,情報とは何かという定義から始まり,情報量をどのように測るかという議論で,情報理論の分野での有名な二人であるRalph Hartley(ラルフ・ハートリー),Claude Shannon(クロード・シャノン)の提唱した各自己情報量の概念や平均情報量(エントロピー)などの議論は,興味深いものがあるだろうと思われる.
10章,11章では,情報を伝送する際に符号化する方法及び,その符号化した情報の誤りを検知する方法についての解説がなされている.瞬時符号,ハフマン符号,情報源符号化定理,誤り修正符号,ハミング符号,線形符号など,符号理論でおなじみの概念が数多く登場する.
最後の12章では,パターン認識と統計的学習として,本書で概略を示し,さらに詳しく掘り下げた内容は,著者の方が本書籍よりも前に書かれた書籍『入門パターン認識と機械学習』(Ref:https://www.coronasha.co.jp/np/isbn/9784339024791/)へという具合に橋渡しを意識して書かれた章であると思われる.
最後に,各章末には数多くの章末問題がついており,各章で学んだ知識をチェックできるようになっている.この章末問題の難易度がちょうどよく,理解を深める上で最適だと感じた.少なすぎず,多すぎずの最適な分量ではないだろうか.略解と解説もWebサイトに記載されているので,問題を解いた後に確認すると,より理解が深まるように感じた.ただ,一部略解なので,完全解が欲しい部分(WebサイトにアップされているPDF:p.28の9.)も見られたのと,一部未完成(WebサイトにアップされているPDF:p.16の10.(2)〜(4))なのか空欄部分があるので,追記・更新されることを期待して待ちたいと思う.