AIにブログを分析させてみた

生成AIは、情報整理を高い精度かつ迅速にやってくれるのが非常にありがたい。これを自分でやるとかなり頭のリソースが持っていかれるから、わざわざ業務の片手間でやるには重たい。

このプロジェクトだけではなく、あらゆる作業が生成AI、具体的にはClaude Code抜きでは進められないぐらい助けられている。

このブログの分析だけではなく、他にもいろんなデータを読み込ませて、自分自身に関するデータベースを作ろうと思い取り組んでいる。

今回は、ブログを読み込ませたときの分析結果と、自己データベースを作る過程で考えたことをまとめる。

このブログを分析したときの自分自身の思考パターンは下記だった。

=============

1. 思考パターン

6年を通じて一貫して繰り返し現れる思考の動き方。核は「違和感/欠如→言語化→自己の設計パラメータ更新」。他者向けのフレーム配布ではなく、自分の動作設定を更新していく作業ログが副産物としてブログが公開されている。

思考の形

- 通念リフレーム:「経営学は役立つ」「課題ドリブン」「シンプルに考えろ」など、キャッチフレーズ化した通念を前提条件から再構成する
- 具体→抽象→留保:一次経験(定食屋の議論、バウンサー、髪切り)を普遍フレームに昇華しつつ「万能ではない」と必ず留保を入れる
- 二項対立の中間探索:分析vs統合/短期vs長期/数字vs価値観/論理vs納得感
- モデル化/式化:失敗影響度、PDCA要素分解、問題解決エッセンス、など現象を式や分類に即座に落とす

コア能力

- (C1) 通念リフレーム力:キャッチフレーズ化した通念の前提を検査する反射神経。1記事に1つは必ず発揮される
- (C2) 経験の抽象化スピード:些細な一次経験を普遍フレームに昇華するのが速い+「万能ではない」の留保
- (C3) モデル化の即応性:現象を式や分類に落とす速さ。210130「問題解決のエッセンス」で頂点に達した
- (C4) 日常→マクロ分析の接続:フィギュア店→時価総額、引っ越し→認知負荷など自然なジャンプ

=============

生成AIは基本的になんでも肯定してくれるので、あまりにも過剰な評価になっている部分もありそうなので、過信は禁物である。

ついでに、このブログを読んでいる人のペルソナも出してもらった。

=====================

3. 読者ペルソナ

メインペルソナ:「思考を言語化することに価値を感じる人」

核となる共通項:「自分も感じているが言語化できていない違和感」を代弁してくれる書き手を求めていること。

- 自分で考えて仕事をするが、それを言語化してもらえない感覚
- 自己啓発書の効率思考も、反自己啓発派の反抗も、どちらも雑に感じる
- 「これは自分も言いたかった」と思いながらブックマークする
- 読む目的は「答えを得る」ではなく「自分の思考の確認・拡張」

刺さる記事例:経営学はビジネスの役に立たないのか泥臭いシンプルに考えないなんらかの交流プラットフォームを運営している企業へ面白いブログを書くためのコツ他己評価の勘違い

遠ざかる要因:強い断定調、結論ファースト、見出し&箇条書きだらけ、バズ狙い。

=====================

これも、まぁそうだろうなという感想になってしまうが、正確に言語化する機会はないので面白い。

一旦、ブログの分析結果については以上である。

ここから先は、ブログの分析も含めた自己データベースをつくるうえで考えたこと。

このブログは頻度は多くないものの思考を純度高く詳細に記しているので、なかなか良いデータになっていると思うが、それ以外にもいくつか参照したいデータがある。

まずは、事実ベースの仕事のデータや仕事の実績などをまとめたデータ。簡単にいえば、職務経歴書みたいなものだが、最後に転職したのを最後に更新がされていなかった。独立したかどうかは問わず、プロジェクトの成果や施策などはこまかくあとから振り返られないので、定期的に経歴書を更新しておけばよかったかも。とはいえ、転職に使うことは今後ないと思うので、職務経歴書自体は不要だし、職務経歴書よりももっとやったことを細かくまとめておきたい。職務経歴書はわかりやすい実績だけをそれっぽく書くものだが、このDBには他者へのアピールには不向きな業務でも自分にとっては大きな経験となったものや、成果が出なかったこともまとめておきたい。

次に、毎日続けている業務日誌のデータである。簡易的にやったことと、思っていることをGoogleフォームで雑記程度に書いている。これはあとからわかったことだが、あまりにも雑記すぎて、自己DBとして参照するためのデータとしての価値があまりなかった。事実、自分で読み返してみても、「あぁ、たしかにあの時こんなこと考えていたなぁ」とか思うが、それ以上のものがない。ベストとしては、気づき・仮説・意思決定などをできるかぎり詳細に書いておくのが望ましい。雑記的に書くこと自体がラクだが、この自己DBをつくったあとだと、あまり意味のないデータを生み出し続けることに価値を感じられなくなったので、ややビジネスチックになったが、ビジネス日報的な位置づけにするようにした。実際、そっちの方が内省的な効果も高いはず。

最後に、思考をブログに出すような感じで、自分にまとめているものがある。大量にあるわけではなく、エッセンスのように特に重要だと考えている思考軸のようなものをいくつかのドキュメントにまとめたもの。

まとめると、ブログ・業務日誌・職務経歴・思考ドキュメントの4つ。

これらを、notionにデータベースを作ってぶち込んでおく。

notionは3年前ぐらいにはじめてつかって、使いにくいなぁと思いつつ、データやメモだけはとりあえず大量に埋め込んでしまったのを最後、「情報人質代」としてサブスク料を払っていた。

ただ、AIとの連携においてのデータベースとしての活用として改めて価値を発揮することとなった。ちょうどよく自由度があるうえに、ページの階層構造を持たせることができるから使ってみるとかなり便利なことが分かった。同じ用途でも、Google Drive + スプシでAIと連携することも可能だが、今回のケースだとnotionの方が私にとっては都合がよかった。

ちなみに、今回のプロジェクトをきっかけに久々にnotionを開いたが、過去に蓄積していたデータをみることもなかったので、「情報人質代」を払っている人は、思い切って解約することをおすすめする。

話を戻して、結果的に3つの層に分けて格納している。

ひとつは、生データ。先のブログやドキュメントなどのデータ。または生データへのリンク。

2つ目は、観察層。生データを要約したり、グルーピング、タグつけするなどして思考パターンを構造化したもの。

3つ目は、思考OS層。汎用的な自分の思考パターンをまとめたもの。先述の思考ドキュメントがそれにあたる。

この取り組みを通じて、私は普通の人よりもブログもそうだし、こまめに思考を書いて蓄積する習慣があるから自分自身のデータは豊富といっても差し支えないだろう。

だからこそ、たとえばさっきの4種類のいい感じに役割が分けられたデータを構造化して共通点や交差する部分を見つけると何か深い気づきがあるのではないかと思った。

しかし期待ハズレなことに、いかに新しいラベリングで構造化したとしても、「まぁそうだよね」という温度感レベルの気づきしかなかった。

というのも、よく考えれば、そもそも思考パターンを定期的に言語化してまとめているのだから、それを改めて構造化しても新しい発見はたいしてない。もうすでに言語化済み。

だが、新しく将来の自分の気づきになるとしたらどういうデータを溜めていくべきかという逆算的な考え方ができた。

つまりどういう言語かアウトプットを日々行なっていくと、データベース全体の価値が上がりそうかみたいなことを考えるいいきっかけになった。

言語化スキルの話みたいなテクニック論も確かにあるかもしれないが、突き詰めるとどういう経験をしていくべきかも重要になってくる。

自己データベース拡張という目的ができて、データを生み出すことが楽しみになってきた。

以上。

Tweet

© 2026 ZUUHE