カテゴリー: AI副業

  • 経産省のPDFは金山である|24時間、国策の動きを監視するAI秘書の作り方

    経済産業省のウェブサイトには、毎週複数のPDFが静かにアップロードされている。審議会の議事録、産業政策の中間報告、エネルギー基本計画の改訂草稿。これらは記者発表を経ずにひっそり公開されることも多く、市場が気づく前に「次の予算が動く場所」を読み解ける。

    私はこれを「国策の先読み」と呼んでいる。大手デベロッパー時代に覚えた「都市計画決定の先にある土地評価」の読み方が、AI時代に一段上のレイヤーで再現できるようになった。

    なぜ公開情報に価値があるのか

    インサイダー情報に頼らなくても、公開情報の時間差だけで十分なアルファが取れる。理由は単純で、読むのに時間がかかるからだ。

    経産省の「総合資源エネルギー調査会」の議事録は1回分で100ページを超えることがある。国土交通省の「国土形成計画」関連資料は数百ページに及ぶ。これを人間が全部読むのは現実的でない。だからこそ、AIがバッチ処理で一括解析できる環境を持つ人間だけが、情報の先読みポジションに立てる。

    Pythonクローラーの概念設計

    仕組みは難しくない。以下の3ステップが基本構成だ。

    Step 1:更新検知
    各省庁のサイトマップXMLまたは「新着情報」ページのHTMLをcronで定期取得し、前回との差分からPDFリンクを抽出する。requests+BeautifulSoup4で実装できる。

    Step 2:PDF取得と前処理
    差分検出されたPDFをダウンロードし、pdfplumberまたはpymupdfでテキスト抽出。日本語OCRが必要な場合はtesseractを噛ませる。64GBのRAMがあるため、数百件のPDFを並列処理してもスワップなしで動く。

    Step 3:ローカルLLMで構造化要約
    抽出テキストをローカルの70Bモデルに渡し、「予算規模・対象地域・関連産業・スケジュール感」の4軸で構造化出力させる。出力はJSONで保存し、日次レポートとして自動生成する。

    64GBだからできる数百件一括解析

    32GBマシンで同じことをしようとすると、モデルのロード・アンロードが頻発してバッチ処理が現実的な速度に収まらない。64GBあるからこそ、モデルをメモリに常駐させたまま、PDFのテキストを次々に流し込める。

    実績として、直近では原子力規制委員会が公表した「新規制基準適合性審査」関連の議事録50件(総計3,200ページ超)を一夜でバッチ処理した。出力されたレポートから「次の審査通過候補サイトと周辺送電線の強化計画」が浮かび上がった。この結果を基に不動産×エネルギーインフラの相関を見始めたのが、次の記事につながる。

    AI秘書が拾う「着金地点のシグナル」

    国策予算が動くとき、その前に必ず「審議会での議論の収束」「関係省庁の連名文書」「地方自治体との協定締結」という3つのフェーズがある。この3つが揃った案件は、半年〜1年後に予算として具現化する確率が高い。

    AIが毎日自動でチェックし、このパターンを検出したときだけ通知する仕組みを作れば、24時間のうち23時間は別の仕事をしながら「国策アンテナ」を立て続けられる。これが私の言う「AI副業」の本質だ。労働集約ではなく、システムが働く構造を作ること。


    📝 2026年後半の「着金地点」の具体的な結論は、noteの有料レポートで公開しています。

    半導体・原子力・エネルギー政策の交差点から、AIが導き出した「次に予算が動く地域」を実名の政策名・資料名とともに解説。クローラーが拾った生データも一部公開しています。

    👉 note「国策先読みAIレポート|経産省データから読む2026年後半の着金地点」を読む

  • AIパニック相場で中古ワークステーションを64GB化する理由

    2024年末から2025年にかけて、生成AIバブルが弾けたと騒がれた。NVIDIAの株価が半値になり、「AIブームは終わった」という記事がSNSを席巻した。そのタイミングで私はHP Z2 Tower G4を中古市場で拾い、64GBにアップグレードした。

    なぜ最新のRTX搭載ゲーミングPCではないのか。なぜクラウドでもないのか。大手デベロッパー、J-REIT、コンサルとキャリアを積んできた人間として、「道具を選ぶ目」は現場で叩き込まれた。今回はその選択の理由を実録として残す。

    なぜ中古Z2 Tower G4なのか

    HP Z2 Tower G4はXeonではなくCore iシリーズを積んだエントリーワークステーション。法人向けに大量調達されたため、リース落ちの中古市場に2〜4万円台で大量に流通している。

    重要なのはECC非対応だがECCなしDDR4スロットが4本という構成だ。32GB×2で64GBに到達できる。消費電力は最大250W程度で、24時間稼働させても月の電気代は2,000円台に収まる。

    対してゲーミングPCは確かにGPUが速い。しかしLLMのローカル推論において、私が使うユースケースの大半は「CPUオフロード+大容量RAM」で処理する長文解析だ。GPUのVRAM 8GBよりも、システムRAM 64GBの方が圧倒的に価値が高い。

    32GBと64GBの処理の壁

    llama.cppで70Bモデルをq4_K_Mで動かす場合、量子化後のモデルサイズは約38〜40GBになる。32GBのシステムではモデルが乗り切らず、スワップが発生して実用速度を下回る。

    64GBあれば70Bモデルをメモリに完全展開した上で、OSとPythonプロセスに残り20GB強を確保できる。実測で1秒あたり3〜5トークンの生成速度が安定して出る。遅いと感じるかもしれないが、PDFバッチ処理やレポート自動生成のような非同期タスクではこれで十分だ。

    経産省の経済白書1冊(600〜800ページ相当)を複数並行で要約させるとき、32GBと64GBの差は「できるかできないか」のラインになる。

    拡張性と信頼性

    Z2 Tower G4のもう一つの強みは拡張性だ。PCIe x16スロットが1本あり、将来的にGPU(RTX 3060 12GBなど)を追加することでVRAM活用の推論にも対応できる。今はRAMファーストで使い、GPUは後付けで十分だと判断した。

    法人向けワークステーションは設計寿命が長い。コンシューマーゲーミングPCと異なり、マザーボードの品質基準が厳しく、24時間通電での連続稼働を想定した熱設計になっている。実際に私の機体は導入から半年以上、一度も予期しないシャットダウンを起こしていない。

    AIパニック相場で「AIはオワコン」と処分された法人リース落ちのワークステーションが、今も静かに政策PDFを解析し続けている。市場の熱狂と正反対のタイミングで道具を拾う。これは不動産でも同じロジックだと気づいたとき、自分の経歴が初めて「副業」に直結した瞬間だった。


    📝 この64GB要塞で動く4エージェント構成の全設計図は、noteで公開しています。

    情報収集・長文解析・データ統合・OSの4分割でどうメモリを配分し、どのモデルを組み合わせるか。実際の設定ファイルレベルで解説しています。

    👉 note「複数収入の設計書|不動産×コンサル×副業」マガジンを読む

  • 大手デベロッパー出身・不動産オーナー・AI経営者が副業で月入りを発信する理由

    「何でもやってる人」ではなく、「全部重なっている」という話
    XやブログでAI副業の発信をしている人は山ほどいる。「副業で月入りを増やしたい」というテーマはもはや青天井だ。

    その中で自分が発信を続けているのは、単純に「この掛け合わせを持っている人がほとんどいない」と思っているからだ。

    大手デベロッパーで不動産事業に関わり、J-REITの現場で利回りの仕組みを見て、コンサルタントとして転職し、不動産物件を実際に保有している。その上でAIを使って会社経営をしながら副業収入を並行している。

    この掛け合わせで発信できる人は、知る限り日本に数人しかいない。

    キャリアの流れを正直に書く
    新卒で大手デベロッパーに入社した。当時は「安定した大企業」という意識はほとんどなかった。単純に不動産業界で働きたかった。

    その後、J-REITの運用会社に移り、「投資家満足」を第一とする立場から不動産を見る目が育った。

    アセットが生み出すキャッシュフローの構造、リスクの評価方法、利回りの引き方——これらを「大きな資金を動かす投資家サイド」から学んだ。これはデベロッパー側にいるだけでは得られない視点だった。

    そしてコンサルタントへの転職を機に、不動産事業者や中小企業オーナーと経営に関わる中で、「経営における意思決定の質」を上げることの重要性を痛感した。

    そこに「今ちょうどいい」のが、AIだった。

    AIを経営に使うということの実態
    「AIを経営に使う」と言うと、何か大きなシステム導入を想像する人が多いが、実際にやっていることはシンプルだ。

    たとえば今日もこんな使い方をした。

    朝のブリーフィング: Claudeが当日のタスク優先度を整理し、アラートをSlackに送る。朝イチでスマホを確認するだけで、その日が始められる。

    提案書作成: Notionにクライアント情報を入れると、最初の構成をAIが吐き出す。最終判断は自分だが、スタートの時間が大幅に短縮された。

    KPI確認: 各チャネルの数字を集計し、分析・改善提案までAIが行う。修正するのは自分、考えるのは自分。最初に「数字を見る」作業がなくなった。

    ローカルAIで機密処理: 外に出したくない情報はローカルAIで処理する。契約書・財動データ・提案書の骨子はPCの中だけで完結する。

    ブログで発信する理由
    正直に言うと、これだけのバックグラウンドを持ってAI副業を実践している人の発信は少ない。

    「副業でAIを使う方法」だけなら山ほどある。でも「不動産の現場を知った上で、実際に会社経営に使い、さらに自分の副業収入にも経営術を応用している人」の発信は、数が極端に少ない。

    それが自分の発信の理由だ。「頑張らなくていい差別化」で発信を続けている。

    これからの発信方針
    このブログでは主に3つのテーマを扱っていく。

    一つは「不動産・投資の実践」だ。月次キャッシュフローの実数値、投資判断の思考回路、現場感を書く。

    二つ目は「AIを使った経営・副業の実践」だ。ローカルAIを導入したような、実際の試行錯誤も含めたリアルな記録を残す。

    三つ目は「転職・キャリア設計」だ。大手デベからコンサルへの転職、その判断軸、失敗したことややって良かったことを正直に書く。

    薄い記事は一切書かない。その代わり、己の実践から導かれたことだけを書く。


    ▶ noteで続きを読む → https://note.com/daichi9567

  • 会社の機密データをAIに渡したくない人へ|ローカルAIを経営に使い始めた話

    「この数字、ChatGPTに入れていいの?」という不安
    AIを使い始めてからずっと、心のどこかに引っかかりがあった。

    契約書の条件、クライアントの財務データ、提案書の核心部分——これらをクラウドのAIに貼り付けるたびに、「本当にこれでいいのか」と思っていた。

    OpenAIもAnthropicも、企業向けプランではデータを学習に使わないと明言している。それは知っている。でも、どこか釈然としない感覚が残る。コンサルタントとして、クライアントの情報を守る責任がある立場としては、なおさらだ。

    そこで行き着いたのがローカルAIだった。

    ローカルAIとは何か
    一言で言えば、インターネットに接続せず、自分のPC上だけでAIを動かす仕組みだ。

    データは一切外に出ない。クラウドサービスへの送信もない。電気代と自分のPCさえあれば、追加費用ゼロで動き続ける。

    数年前まではこれを実現するには専門知識と高性能サーバーが必要だった。しかし2024〜2025年にかけて、Ollamaというツールの登場で状況が一変した。ターミナルに3行打つだけで、個人のノートPCでAIが動く時代になった。

    32GBメモリのノートPCで十分動く
    私が使っているのはDell Latitude 5310。先日32GBにメモリを換装したばかりの機種だ。

    この構成で問題なく動くモデルがある。Qwen2.5 14Bだ。

    Alibaba(アリババ)が開発した大規模言語モデルで、日本語の精度が高く、文書作成・分析・要約をこなせる。ファイルサイズは約9GB。32GBのRAMがあれば、ブラウザやNotionと同時に起動しても余裕がある。

    セットアップは驚くほど簡単だ。

    # Ollamaをollama.aiからインストール後
    ollama pull qwen2.5:14b
    ollama run qwen2.5:14b
    

    これだけで動く。ブラウザUIが欲しければOpen WebUIというツールを追加すれば、ChatGPTと同じ感覚で使える。

    実際に経営業務に使ってみた
    私は不動産×投資×コンサルティングの会社を経営している。

    ローカルAIを導入して最初に試したのは提案書のドラフト生成だった。

    クライアントの財務状況、不動産ポートフォリオの詳細、投資方針——これらを含む情報をQwen2.5に投げて、提案書の骨子を作らせた。今まではこの作業、クラウドAIには入れられないと思っていたので手作業でやっていた部分だ。

    結果は想定以上だった。叩き台として十分な精度の文章が出てきた。あとは自分でブラッシュアップするだけ。作業時間が体感で40~50%短縮された。

    次に試したのは契約書のリスク分析だ。「この条項で問題になりそうな点を指摘してほしい」という形で投げると、チェックリスト形式で返ってくる。法的な最終判断は弁護士に委ねるにしても、事前のスクリーニングとしては十分使える。

    Claude・Gamma・ローカルAIの使い分け
    今の私のAI活用は3層構造になっている。

    ローカルAI(Qwen2.5)が担うのは、機密情報を含む文書の処理だ。提案書・契約書・財務データ分析はすべてここで完結させる。外部に一切出さない。

    Gammaは、できあがった内容をスライドや提案資料として見栄えよく整える作業に使う。クライアントに見せるアウトプットの「見た目」を整えるためのツールだ。

    Claude(クラウド版)は、戦略的な判断・設計・複雑な思考が必要な場面に使う。会社全体の設計や、ブログ記事の構成を考える場面などだ。

    この3つを使い分けることで、機密リスクを下げながら生産性を最大化できる。

    向いている人・向いていない人
    ローカルAIが向いているのは:
    – 社内の機密情報をAIで処理したいが、クラウドに上げることをためらっている人
    – 士業・コンサル・経営者など、守秘義務が重い職種の人
    – 月額のAPI費用を抑えたい人
    – 「自分でインフラを持つ」ことに価値を感じる人

    逆に向いていないのは:

    • PCの性能が低い人(8GB RAM以下では厳しい)
    • セットアップに時間をかけたくない人(とはいえ30分で完了するが)
    • クラウドAIの最新モデルと同等の精度を求める人(現状、差はある)

    まとめ:「自分でAIを持つ」という選択肢
    2026年現在、AIは使うものから「持つもの」になりつつある。

    クラウドサービスに依存し続けることも一つの選択だ。しかし機密情報を扱う立場であれば、ローカルAIという選択肢を知っておく価値は十分にある。

    30分のセットアップで、外に一切出ないAI環境が手に入る。投資対効果で考えれば、これほどコスパのいいインフラ投資はなかなかない。


    ▶ noteで続きを読む → https://note.com/daichi9567