ちょき☆ぱたん お気に入り紹介 (chokipatan.com)
第1部 本
社会
AIの倫理(栗原聡)
『AIの倫理 人間との信頼関係を創れるか (角川新書)』2026/1/9
栗原 聡 (編集, 著)

(感想)
データ資源、偽情報、法的課題、法的人格、責任と説明、AIの社会参加、開発の持続可能性……「AIと共に生きる」ために考察すべき課題について、それぞれ専門の異なる12人の論客が自身の考えを解説してくれる本で、主な内容は次の通りです。
序論 栗原聡
第1部 AIと人間が抱える課題――ぶつかる
第1章 AIと共有データ資源――信頼を築くために 清田陽司
第2章 認知から始めるAIの再設計 ジェプカ・ラファウ
第3章 生成AIの法的トリセツ――開発と利用の思わぬ落とし穴 柿沼太一
第4章 偽情報が認知戦で果たす役割とプラットフォーマーの責任 高橋ミレイ
第2部 AIと人間の関わり――なじむ
第1章 信用・信頼・信託――責任と説明に関する概念整理 大屋雄裕
第2章 AIの法的人格 中川裕志
第3章 AIと持続可能性 神崎宣次
第4章 人工知能の人間理解・空間認識と社会参加 三宅陽一郎
第3部 AIと人間の未来――とけこむ
第1章 情報的健康を支援する社会システムに向けて 鳥海不二夫
第2章 AI時代の人はどうなる? 武田英明
第3章 バディAIがいる世界へ 栗原聡
第4章 「生命革命」再考 山川宏
*
最初の「第1部 AIと人間が抱える課題」の「第1章 AIと共有データ資源」から、参考になる意見をたくさん知ることができました。例えば……
「今日、データ資源をめぐる信頼は、「共有する者同士の信頼」から、「管理者に委ねられた構造的信頼」へと形を変えつつある。アルゴリズムやプラットフォームの設計に組み込まれた信頼構造は、一見すると便利で効率的だが、その実態はしばしば不透明であり、説明責任の所在も曖昧になりがちである。
この変化は、単なる経済構造の問題にとどまらない。巨大プラットフォーマーは、インフラストラクチャーとしての通信網や検索エンジン、広告市場、さらには言論空間そのものに深く関与しており、サイバー空間における新たな権力機構を形成している。ここには、従来の国家権力とは異なるかたちの支配力が存在し、それがしばしば透明性を欠き、説明責任を回避する傾向を持つことが指摘されている。
(中略)プラットフォームによる情報の恣意的な取捨選択、アルゴリズムによる世論操作、個人データの意図しない利用といった事例が示すように、利用者が気づかぬうちに選択肢を狭められ、行動を誘導されるリスクが存在する。この種の暴力性は、物理的な強制力とは異なり、不可視でありながら深く社会構造に影響を与えるため、より注意深い観察と対応が求められる。」
*
現在では、信頼の基盤が構造変化していて……
「(前略)もはや信頼は暗黙のうちに前提とされるものではなく、制度、契約、説明責任の中で構築され、維持されなければならないものになりつつある。」
……そして「研究と現場がデータを共有する」事例として、「LIFULL HOME’Sデータセット」(不動産情報サイトに掲載された全国の賃貸・売買物件データを、研究者向けに一定の条件で共有する取り組み)が紹介されていました。この事例での経験は、共有が制度の整備だけで成り立つのではないことを示唆していて、利用者との対話、利用状況の観察、逐次的な調整といった実務の積み重ねによって、共有の設計は少しずつ更新されていくそうです。
またこの章には、共有と保護のバランスをとるための、次のような具体的な提案もありました。
1)段階的共有モデルの導入
2)プライバシー・バイ・デザインの徹底(データ収集の設計段階からプライバシー保護を組み込む)
3)説明責任メカニズムの確立
4)公共性を重視したデータ資源の整備
5)国際的なガイドラインとの連携(OECDやUNESCOなどの国際的ガイドライン)
*
続く「第2章 認知から始めるAIの再設計」では、「言語菌」という仮想エージェント群がとても興味深いものでした。
「(前略)言語菌は、極小の認知アーキテクチャ(人間の知的処理を模倣するための構成的枠組み)を持ち、それぞれが独自にテキストを読み取り、知識と感情の断片を形成していく。(中略)
たとえば、ある言語菌がブログ記事の中で「湖」という単語に出会ったとき、それをただの名詞として記憶するのではなく、人間のように「静的な水の広がり」「遠くにある」「視覚的に広い」「寒いと感じることがある」といったような、感覚的な構成要素の組み合わせとして記憶することで、「海」「池」「水たまり」などとの意味的な近接性を、単語の共起頻度ではなく、構成する感覚の類似性によって判断することが可能になると考えた。これが、赤ん坊が最初に世界を「見る」「触る」「聞く」ことと同様な「五感」機能を言語菌にもたらした。
さらに、各々の人間が収集した経験が、人によって異なるが、お互いに共有することで、人類全体が「共有知」をもつように、言語菌同士の相互作用も重要な要素になると考えた。」
*
……この「言語菌」の研究を通して、AIがより現実的に有用な存在になっていくことを期待したいと思います。
また「第2部 AIと人間の関わり」の「第1章 信用・信頼・信託」の「AIによるブラックボックス化」への考え方も、とても合理的なように感じました。
「(前略)「AIによるブラックボックス化」といった表現が問題にしているのは、AIによる決定がトラブルを引き起こしたときに誰がどのような責任を負うのかが明らかになっていない、我々が要求したとしても事態の意味を説明できるような主体がそこには存在していないということであり、プロセスの忠実な記述としての因果関係が明らかになっていない(明らかにならない)ということとは異なるということになるだろう。AIを用いたシステムがブラックボックス化を問題にする人々を満足させようとするならば、彼らが十分だと納得する説明が事後的に提供されることが重要だということになるはずだ。」
……確かに。たとえAIの判断の根拠を「透明化」出来ないにしても、「事後的に納得できる説明」があれば、実用上は、それで十分なのかもしれません。
そして「第3部 AIと人間の未来」の「第1章 情報的健康を支援する社会システムに向けて」では、人間の「身体的健康」と同じように「情報的健康」を考えるというアイデアが素晴らしいと感じました。
・「(前略)現代情報空間においては、アテンションエコノミーやフィルターバブル、エコーチェンバーの影響によって、多様な情報にバランスよく触れることが困難になっていることが多い。(中略)
情報的にも、自らが目指す「健康(Well-being)」を実現可能にするような、情報摂取をコントロールできる環境を整えることで、食事と健康のように人々の情報行動を変更することが期待できる。
そこで、食事と健康のアナロジーを用いて、一人ひとりが望む情報環境における「健康」が満たされた状態を「情報的健康(Informational Health)」と呼ぶ。」
・「情報的健康実現のためには、ユーザ自身の意識改革、すなわちリテラシー教育とともに、事業者側の努力、さらには政府の適切な(しかし直接的ではない)支援が必要不可欠である。これによってユーザが自ら摂取する情報を自主的・主体的に選択することができる情報環境を整えることが求められる。」
*
さらに「情報的健康診断(情報ドック)」というアイデアもあって……
「「情報ドック」では、摂取している情報源の多様性(偏りが生じていないか)や、その情報源の信頼度などを検査し、その結果を客観的なデータとして提示することが考えられる。また、フィルターバブルやエコーチェンバーに「罹患」している状況や度合いを可視化することが考えられる。」
……これも良いですね! ただしこの「情報ドック」には、正しく運用されないと「洗脳」「情報操作」の危険性が大いにあるという懸念も感じてしまいますが……それでも「情報的健康」の促進のために、少なくとも学校や生涯教育でのリテラシー教育は必要だと思います。
『AIの倫理 人間との信頼関係を創れるか』……AIと共生する社会に向けての重要論点について、専門家が深く考察している本で、とても参考になりました。ここで紹介した以外にも、AIの法人格やデジタル生命体など、さまざまな課題を論じています。みなさんも、ぜひ読んでみてください☆
* * *
なんとこの本は、Amazonの「アソシエイト対象外」ということなので、以下では商品リンクではなく、他のAmazonページ(トップ)へのリンクを表示しています。そこから『AIの倫理』を検索してみてください。
なお社会や科学、IT関連の本は変化のスピードが速いので、購入する場合は、対象の本が最新版であることを確認してください。
Amazon商品リンク
興味のある方は、ここをクリックしてAmazonで実際の商品をご覧ください。(クリックするとAmazonページが開くので、Amazonの商品を検索・購入できます。「AIの倫理」で検索してください。)
Amazonページ