Quoraで「AIを使うとバカになるらしい」という質問があった。これに回答したものを当ブログにも転載することにした。どう回答しようか迷ったのだがリサーチのワークフローを整理したうえでまとめると割とすんなりまとまるようだ。
生成AIを使うコツについて書かれた記事があるのでまずはそれを読んでみた。そして最後に実際に「作品」を作ってみることにした。
Table of Contents
求められるのは統合力
これは生成AIの導入によって、頭脳労働者に求められる知的能力や仕事の性格が変わってきていることを意味する。つまり従来の「知識力」や「分析力」などから、生成AIが出力する情報を「評価」することへと仕事の比率が傾いているのだ。
生成AIに頼り過ぎるとバカになる…!米カーネギーメロン大学などが明らかにした「衝撃の調査結果」(現代)
カーネギーメロン大学のフレームワーク
紹介されているフレームワークは批判的思考力を次のように分解しているという。情報が豊富に手に入る現代においては、段階を踏んで情報を統合する力が求められているのである。
(1)知識力(Knowledge) ––知識や情報を記憶・想起する能力
(2)理解力(Comprehension) ––知識や情報を理解する能力
(3)応用力(Application) ––知識や情報を仕事に活用する能力
(4)分析力(Analysis) ––知識や情報を異なる要素に分けて、各々の性質や関係を明らかにする能力
(5)合成力(Synthesis) ––異なる知識や情報を総合して新たな知識や情報を創造する能力
(6)評価力(Evaluation) ––知識や情報を客観的基準に基づいて評価する能力
ただこのフレームワークはいささか概念的であり実務的にどう使えるのかという分析には役に立ちそうにない。そもそも何かを理解しようとしても材料が乏しければどうしようもないだろう。
初期段階はブラウジングが大切
まず初期段階ではできるだけ多くの材料を集める必要がある。本であれば本屋に行き本棚をブラブラする。新聞であれば新聞を最初から最後まで読む。これをBrowsingという。リサーチにおいては信頼できる記事をRSSに登録し見出しを読むというような作業だ。つまりこの時点でAIも検索エンジンも利用しない。記事はすでにデータが情報化されているが、もちろん自分で情報を集めても構わない。データと情報の違いは文末のAIレポート(今回実験のために実際にAIでレポートを作った)でまとめている。
次は情報を整理し知識化する
ある程度情報が溜まってきたら今度はそれを体系化する必要がある。ここではGEMINIのような比較的リソースが潤沢なツールを使うのが良さそうだ。ChatGPTは無料版で使える時間が限られていて物足りない。
この段階で簡単な質問を繰り返し知識の体系化を目指す。このときに使えるのが冒頭で紹介したカーネギーメロン大学のフレームワークなのだ。
途中成果物をまとめる
ある程度知識が体系化できたら一度テキストエディタなどでまとめてみると良いと思う。まとまったものを別のAIにかけてクロスチェックしてもらうのも有効だ。これってどういうことかな?と批判的に考察することでカーネギーメロン大学のフレームワークを徐々に登ってゆくことになる。理解が不十分であれば前の情報整理に戻ればいい。
AIの登場でこの一連の作業がより簡単に行えるようになった。
いよいよ最終成果物を作る
ChatGPTの内容をシェアする
ここまでができたらいよいよ最終成果物を作ることができる。QuoraのようなSNSに投稿するならば途中成果物の形でChatGPTの質問と回答の履歴をシェアすればいい。メールに添付する程度の簡単なレポートならこれで十分だろう。
出典を探すには検索エンジンが向いている
実際に文章をまとめるためには出典を探し出す必要がある。このときにはAIによるランダムな例示ではなく実際に記事を検索したほうが効率的だ。特に時事性の高い問題においては検索日付を限る必要が出てくる。Google検索の場合には[ツール]から期間指定を行うとよいだろう。Google検索は最近のニュースしか表示してくれないからだ。
ブログパーツづくりにはClaudeが使える
レポートをブログに埋め込みたい場合にはClaudeのアーティファクトが使える。アーティファクトはClaudeが作る整形されたレポート。構成を指定すると自動でレポートを生成してくれる。ドメインに閲覧指定がかけられるので「他の場所で盗用されたくない」ときにも便利に利用することができる。
今回は一連の流れを加工してClaudeにアーティファクトを作ってもらった。グラフィック的に見やすくレスポンシブデザインに対応しているようだ。これが無料で作れる上に所要時間はたったの5分程度だった。
Claudeを使った成果物のサンプル
まとめ
AIを使ってバカにならないためにはまず自分の従来のレポートの作り方をまとめたうえでどんなリソースを使えば作業が効率化できるかを考えると良いようだ。AIを使えば仮説検証サイクルを効率的に回すことができるが、出典探しのような場合にはまだまだ検索エンジンのほうが使いやすい。

“政治・経済記事を作るうえでAIは便利なツールなのか それともバカを作り出すのか” への3件のフィードバック
私もNotebookLMを使用して自分の文章を修正してもらいました。この記事と自分の文章を使いました。
その時に、文章の良い点・問題点・修正すべき点を教えてもらいました。
こういうのを見ると、大学生時代にこういうツールがあったら、就活のエントリーシートを推敲するのが楽だっただろうなと強く思いました。それと同時に、何も考えずにこのツールを使い続けていると堕落してしまいそうだと感じるのは分かる気がしました。ちゃんと主体的になってAIツールを使わないといけないなと思います。
【修正後の文章】
AI利用に関する議論の中で、「出典探しのような場合にはまだまだ検索エンジンのほうが使いやすい」という点に、強く実感がわきます。質の良い情報をAIに提供し(食べさせ)、批判的に考察しながらリサーチのワークフローを進めることが、より良い結果を得るための鍵となります。
しかし、AIが抱えるハルシネーションの問題を理解せずに、無責任にAIを使い続けることで、周囲を疲弊させる事例が散見されます。AIは誤った資料を生成したり、既存の情報を誤って提示することがあるため、利用者はその信頼性を評価しなければなりません。
具体的な一例として、歴史的な論争においてAIの生成結果が検証された際、AIが示した資料の大半が非存在、あるいは情報が誤っていることが判明しました。この誤りを指摘されたにもかかわらず、利用者が「Grok(AI)を修正すれば良い」といった形で自身の責任を棚上げする発言をしました。このような事例は、AIを使うことで知性が低下するのではなく、むしろ批判的思考力 や評価力 を欠いた利用者が、安易にAIに依存することで周囲を疲弊させている事実を示していると考えられます。
生成AIの導入によって、頭脳労働者に求められる知的能力は、従来の「知識力」や「分析力」から、AIの出力を客観的基準に基づいて評価する能力(評価力)道具として捉え、自分の目的を明確化し、リサーチの手段を検討する能力、そしてAIの弱点を理解してそれを修正する能力が必要です。
これらの高度な統合力 を持つ利用者と、そうではない利用者との間で、能力の差が更に広がる可能性があると痛感します。
> AIが抱えるハルシネーションの問題を理解せずに、無責任にAIを使い続けることで、周囲を疲弊させる事例が散見されます。
間違いを指摘すると「ごめんなさい」と言ってくるんですが、悪気なく間違えるのでついつい見逃しがちになってしまいます。逆に学習している文献のの幅が狭いせいで「こういい切ることはできない」と言われてしまうこともあり、このあたりはなかなか扱いが難しいなと感じるところです。
「ごめんなさい」というだけましに感じてしまいますね。私が書いた例ではXでの発言だったので、使用しているプラットホームによる違いなのかなと感じます。それと、歴史的な論争というのはアサシンクリードシャドウズが発端の弥助に関するものだったので、かなり感情的というか扇情的な論調が多かったので、悪意が含まれていて己の過ちを認めることができなかったのだろうと思います(議論に非協力的なのでしょう)。
文献の幅については、人力やAIでも難しい問題ですね。やはり、議論する相手が必要で、その相手から違う視点の文献を教えてもらえれば、より良くなるのでしょうかね。