AIで仕事はどう変わる?“スマートなリスクテイク”が導く新時代の働き方

AI活用ブログ
AI活用ブログ

AIが人間の可能性を拡張する理由を徹底解説

AI(人工知能)の進化のスピードは想像以上に速く、「自分の仕事がAIに奪われるのでは?」「人間の判断力がAIによって損なわれるのでは?」といった不安を耳にすることが増えてきました。そんな中、「AIが私たちの“主体性(エージェンシー)”を強化し、人間の能力を大きく伸ばしてくれる」と主張するのが、LinkedIn共同創業者であり投資家としても著名なリード・ホフマン氏です。

本記事では、ホフマン氏が最新刊『Superagency(スーパーエージェンシー)』で提唱する「AIは人間の可能性を拡張し得る」という見方を詳しくご紹介します。この記事を読むことで、

  • AIへの漠然とした不安をどのように捉え直せるか
  • “スマートなリスクテイク”という新しいテクノロジー活用法
  • 社会や仕事がどう変わり、私たちがどう備えればいいのか

といった具体的なヒントが得られます。さらに「AIには興味があるけれど怖さもある」という方にも共感しつつ、イメージがポジティブに変わるような意外な事実を盛り込みました。ぜひ最後まで読んでみてください。


「スーパーエージェンシー」とは何か?:AIがもたらす“超”主体性

ホフマン氏が提唱する「スーパーエージェンシー」とは、人間の主体性(自分で考え、選択し、行動する力)をAIが拡張することで、社会全体としての可能性を高めるという考え方です。多くの人がAIをめぐって「AIに仕事を奪われる」「人間の判断が鈍る」といったネガティブな面ばかりを取り沙汰しがちですが、ホフマン氏は「AIがうまく使われれば知識や能力を増幅し、人間の暮らしをより良くする」というポジティブな未来像を提示しています。

意外な類似例:車は“危険”から“安全”へ進化

ホフマン氏の例でわかりやすいのは「車」です。車が生まれた当初は「危険だ」「早く走りすぎる」と不安の声が大きかったのは事実です。しかしその後、ブレーキやエアバッグ、シートベルトなどの安全技術が発明され、車は“より早く安全に移動できる”乗り物へと進化しました。
「AIも同じように、改善を重ねることで安全性も高められる」――これがホフマン氏の主張です。


悲観派と楽観派:4つの「○○マー」という見方

ホフマン氏はAIに対する人々の見方を4つに分類しています。

  1. ドゥーマー(Doomers)
    「AIが人類を滅ぼすかもしれない」という“終末論”に近い悲観論者。
  2. グルーマー(Gloomers)
    長期的な滅亡リスクよりも「近い将来の雇用喪失」や「社会不安」を強く懸念するタイプ。
  3. ズーマー(Zoomers)
    AIをめぐる関心が高まり、技術の発展を受け入れる姿勢はあるが、深い理解や独自の視点がまだ固まっていない層。
  4. ブルーマー(Bloomers)
    ホフマン氏自身が名乗る、AIを前向きに捉えつつも「リスクを見極め、適切な範囲で規制しながら開発・導入する」ことを主張するグループ。

ホフマン氏は「何が起こるかわからないからこそ、リスクを恐れすぎずに技術を前向きに取り入れ、人間の可能性を広げる道を模索しよう」という“賢いリスクテイク”を提唱しています。


イテレーティブ・デプロイメント:多くの人の手に渡ることが安全を高める

AIが社会に広まる段階を「イテレーティブ・デプロイメント(段階的な実装・展開)」と呼ぶ考え方も興味深いポイントです。まずは多くの人がAIを使い始め、その使用状況や課題をフィードバックしながらAI自身を改良・最適化していくプロセスを重視しています。

  • 「みんなが使う→問題点が可視化される→修正が進む→より安全になる」
    こうした流れが、結果的に社会全体の安心・安全につながるわけです。

もちろん、全員の声が平等に反映されるわけではないため、「少数意見は埋もれるのでは?」という懸念もあります。しかし競合のAI企業同士がユーザーの反応を敏感にキャッチしながらサービスを改良していくことで、結果的に多様なニーズが取り込まれやすくなるともいえます。


AI規制はどうあるべきか?:「イノベーション=安全」の考え方

AI規制についてホフマン氏は、「テロ防止やサイバー犯罪防止のような特定の目的にフォーカスした規制は必要だが、広範囲で厳しすぎる規制はイノベーションを妨げかねない」と指摘します。車の例と同様、イノベーションによって“安全性を高める技術”が生まれる可能性が十分あるからです。

  1. まずはリスクの“測定”を行う
    どのような使い方がどの程度のリスクを生むのか、データで把握する。
  2. リスクを発見したら即対応できるフレキシブルな枠組み
    イノベーションを殺さず、かつ必要な保護は講じるという両立が求められます。

気になるエネルギー負荷:「AIは気候変動に悪影響か?」

近年はAI開発における電力消費量が増え、環境負荷が懸念されています。しかしホフマン氏はこれについて、

  1. データセンターの電力はグリーンエネルギーへシフトが進んでいる
  2. AIによる効率化が結果的に省エネ・省資源につながる
  3. 全体のエネルギー消費の中でAIが占める割合はまだ小さい

などを挙げ、大きな問題は生じにくいと主張しています。もちろん今後の急激なAI拡大で負荷が増す可能性はあるものの、同時に企業が再生可能エネルギーへシフトする動きを後押しする面も見逃せないと強調しています。


雇用の未来:「新しい仕事は生まれるが、痛みも伴う」

「AIが仕事を奪うのでは?」という声は根強いですが、ホフマン氏は「歴史を振り返っても、新しいテクノロジーが登場するたびに雇用構造は変化し、最終的には新職種が生まれてきた」と述べています。たとえば、サポートセンターの仕事がAIチャットボットで減る一方で、AIを使いこなす技術者や新しい業種の需要が高まる可能性があります。

もちろん、急激な変化が起こると、「どうやってスキルを身につければいいのか」「収入が激減するのでは?」といった不安は避けられません。そこで大事になるのが、AI自身に「学び方を教えてもらう」こと。AIの学習サポート機能を活用すれば、転職やスキルアップへのハードルが下がるかもしれません。


まとめ:「何がうまくいくか?をもっと考えよう」

AIのリスクは決して小さくはありません。情報の信頼性やプライバシー、暴走や濫用の危険など、現実的に対処すべき問題はたくさんあります。しかし、ホフマン氏はこう提案します。

「問題を軽視するのではなく、むしろAIがもたらす大きな可能性に目を向け、
スマートなリスクテイクで社会全体のエージェンシーを高めよう」

社会にはどうしても「何がうまくいかないか」に目を向ける傾向が強く、「失敗」や「危険性」が強調されがちです。けれども同時に、「AIによって人類がどのように恩恵を受けられるか」を真剣に考え、それを実現するために試行錯誤することも同じくらい重要なのではないでしょうか。AIの普及が進むいまこそ、私たち一人ひとりが「スーパーエージェンシー」の力で、自分の人生や社会の未来をより豊かに変えていくチャンスかもしれません。

参考)Why Reid Hoffman feels optimistic about our AI future

↑↑↑
この記事が参考になりましたら、上の「参考になった」ボタンをお願いします。

会社ではChatGPTは使えない?情報漏洩が心配?

ある日本企業に対する調査では、72%が業務でのChatGPT利用を禁止していると報告されています。社内の機密情報がChatGPTのモデルに学習されて、情報漏洩の可能性を懸念しているためです。

そのため、インターネットに接続されていないオンプレミス環境で自社独自の生成AIを導入する動きが注目されています。ランニングコストを抑えながら、医療、金融、製造業など機密データを扱う企業の課題を解決し、自社独自の生成AIを導入可能です。サービスの詳細は以下をご覧ください。

いますぐサービス概要を見る▶▶▶
この記事をシェアする

監修者:服部 一馬

フィクスドスター㈱ 代表取締役 / ITコンサルタント / AIビジネス活用アドバイザー

非エンジニアながら、最新のAI技術トレンドに精通し、企業のDX推進やIT活用戦略の策定をサポート。特に経営層や非技術職に向けた「AIのビジネス活用」に関する解説力には定評がある。

「AIはエンジニアだけのものではない。ビジネスにどう活かすかがカギだ」という理念のもと、企業のデジタル変革と競争力強化を支援するプロフェッショナルとして活動中。ビジネスとテクノロジーをつなぐ存在として、最新AI動向の普及と活用支援に力を入れている。

Chat Icon
タイトルとURLをコピーしました