スティーブ・ウォズニアックはAIを好まない:その理由、懸念、そしてニュアンス

最終更新: 26/03/2026
  • スティーブ・ウォズニアックは、現在のAIは信頼性、人間的な理解力、そして感情的なニュアンスに欠けていると批判している。
  • 彼は、モデルが生み出す文章は「あまりにも味気なく完璧すぎる」ものであり、人間の仕事に宿る創造性や不完全さといった輝きを欠いていると考えている。
  • それは、依存症、批判的思考力の喪失、そして偽情報やディープフェイクのリスクについて警告している。
  • 同団体は、より透明性の高いAI、強力な規制、そして人間にとっての代替物ではなく支援ツールとしての明確な役割を提唱している。

スティーブ・ウォズニアックと人工知能

FOX BusinessやCNNなどのネットワークから公開講演に至るまで、最近のいくつかのインタビューでウォズニアックは、 彼はChatGPTやClaudeのようなツールを「好んでいない」 そして彼はそれらをほとんど使わない。AIが役に立たないからではなく、現状では「インテリジェント」と呼ばれることを目指す技術に期待する信頼性、感情理解、そして創造性といったものが、AIにはまだ程遠いと考えているからだ。

スティーブ・ウォズニアックとは何者なのか?そして、彼のAIに関する意見はなぜ重要なのか?

AIに関する彼の見解を掘り下げる前に、ウォズニアックは単なるオピニオンリーダーではないことを覚えておく価値がある。 現代パーソナルコンピューティングの偉大な父の一人電子工学技師であり発明家でもある彼は、70年代にアップル初のコンピュータであるApple IとApple IIの開発において重要な役割を果たした。

スティーブ・ジョブズは戦略とビジネスに重点を置いていたが、 ウォズニアックは機械の設計と製造に心血を注いだ。彼自身が語っているように、多くのエンジニアがまだラジオやテレビのことばかり考えていて、パーソナルコンピュータのことなど考えていなかった時代に、彼は純粋な情熱から暇な時間にコンピュータの回路図を描いていた。

彼が数々の講演で説明してきたように、彼の夢は 家よりも先にコンピューターを持つその技術と創造性へのこだわりこそが、最終的にアップルの第一世代コンピュータを形作り、消費者向けテクノロジーの歴史における転換点となったのである。

1985年に彼は会社を辞めて 「普通の人間として生きられるように」彼自身がインタビューで語っているように、彼は富や企業からの圧力に縛られることを好まなかった。それ以来、彼は起業家精神に身を捧げ、例えば、世界初のプログラム可能なユニバーサルリモコンの一つを開発するなど、慈善活動にも力を注ぎ、財産の大部分を美術館、財団、教育プロジェクトに寄付してきた。

これらすべてが、AIを含む現在のテクノロジーに対する彼らの意見を 業界における特別な重みウォズニアックは変化を恐れて語っているのではなく、私たちが今日経験している革命の引き金となった人物としての経験に基づいて語っているのだ。

「私はAIの支持者ではありません」:回答の信頼性の低さと無味乾燥さ

FOXビジネスの番組「ザ・クラム・カウントダウン」で、ウォズニアック氏は力強くこう述べた。 「私はAIの支持者ではありません」彼は様々な言語モデリングツールを試したことは認めたものの、信頼性に欠けるため、日々の業務ではあまり使用していないと明言した。

彼の主な批判の一つは 回答の正確性と信頼性の欠如彼は、知りたいことのニュアンスや方向性を明確にする上で、たった一つの単語が鍵となるような質問をすることが多いと述べた。しかし、AIは、話題には触れるものの、彼が本当に知りたい点から逸れてしまうような、長くて一見きちんと書かれた文章で返答してくるという。

彼によれば、それは 壁に向かって話しているようなもの機械は大まかな文脈は理解するものの、重要なニュアンスを無視してしまう。その結果、一見正しく見える応答が返ってくるが、ユーザーの要求に直接的かつ明確に応えていない。

ウォズニアックは、自分が求めているのは 「常に信頼できるコンテンツ」この要件は、データの正確性だけにとどまらず、AIが自身の限界について正直であること、情報を捏造しないこと、そして実際には推測で「不足部分を補っている」にもかかわらず、権威的な口調を採用しないことも含まれる。

彼は何度か、 多くの回答に「非常に失望した」 これらのシステムから受け取る情報も問題だ。彼らが何を言っているかだけでなく、どのように言っているかにも問題がある。表面上は完璧すぎるが、その裏には魂も真の理解もないのだ。

感情、経験、人間理解の欠如に対する批判

ウォズニアックが何度も繰り返し言及するもう一つの考えは、現在のAIは 彼には、自らの人生経験も人間としての経験も全くない。言語モデルは膨大な量のテキストで訓練されているが、恐怖、喜び、喪失感、共感、あるいは道徳的責任といった感情は感じていない。

  Microsoft Copilot Canvas:マイクロソフトの新しいAI搭載ホワイトボード

CNNのインタビューで、彼はこれらのシステムが大きな問題だと説明した。 「彼らは人間らしい人生を送ったことがない」だからこそ、彼らは私たちの話し方、人との接し方、物語の語り方のニュアンスを理解するのに苦労するのだ。彼にとって、他者を真に理解するには、似たような経験をし、過ちを犯し、そこから重要な教訓を学ぶ必要がある。

ウォズニアックはそれを非常に明確に述べている。彼は知りたいのだ 「私のように考える人間は他にいるのだろうか?」 一方、相手が何を感じているかを理解し、会話における口調、皮肉、二重の意味、あるいは沈黙さえも解釈できる人も必要だ。

AIと人間を比較する際、彼は次のように強調する。 人は感情、感覚、欲求を持っている例えば、他者を助けたいという気持ちや、善良な人間であろうと努力する気持ちなどが挙げられる。彼の見解では、こうした特性は私たちが真の知能と理解するものの本質的な部分であり、今日のAIシステムはそれに類するものを全く備えていない。

そのため、AIが最終的に人間を何らかの面で置き換えると思うかと尋ねられたとき、彼は技術は常に進歩しているが、 私たちはまだ人間の脳の仕組みを完全に理解していません。 まるでそれを機械で完全に再現しようとしているかのようだ。彼は将来、驚くべき進歩が起こる可能性を否定しないものの、現時点では、理性、感情、倫理の融合を再現できる段階に近づいているという明確な兆候は見られないと主張する。

「あまりにも無味乾燥で完璧すぎる」文章:人間の不完全さの価値

ウォズニアック氏は、AI生成コンテンツのスタイルについても非常に批判的だ。彼は、これらのモデルで作成されたテキストを読むと、しばしば次のように感じると指摘している。 「乾燥しすぎている、完璧すぎる」彼にとって、その形式的な完璧さこそが、まさにそれらの魅力を奪ってしまうものなのだ。

彼が見逃しているのは 人間の仕事に内在する不完全性表現方法におけるちょっとした癖、独自の言い回し、予期せぬトーンの変化、そして人柄を表すミス。彼女は、AIが生成する文章の多くはまるで外科手術のように正確だが、書き手との繋がりを感じさせる創造的なひらめきに欠けていると考えている。

この批判は、ビデオゲームなどの他のクリエイティブ分野にも及んでいる。ウォズニアックは、次のようなテクノロジーをめぐる最近の議論に同調している。 NvidiaのDLSS 5これらは目覚ましい成果を約束するものの、これまで芸術家や開発者による独創的な解決策を必要としていた作業において、アルゴリズムへの過度な依存につながる可能性がある。

彼の見解では、AIを放置すると、 技術的または創造的な問題を自動的に解決しすぎる私たちは、制約に直面した際に、素晴らしい解決策を即興で生み出す能力を失ってしまうかもしれない。多くの技術的・芸術的作品の「魔法」は、まさに限られた資源でやりくりしなければならなかった人々から生まれたものだ。

だからこそ彼は、テクノロジーは 純粋なツールペーパー創造性、想像力、そして自分自身の声は、人間らしさを保つべきである。AIはプロセスを洗練させたり、提案したり、加速させたりするのに役立つかもしれないが、創造的な仕事の本質を置き換えるべきではない。

依存、批判的思考、そして「安易な逃げ道」

ウォズニアックが特に懸念しているもう1つの点は、AIが 私たちの思考習慣と自律性彼は、情報提供、意思決定、コンテンツ制作などを自動化システムに依存する度合いが高まるほど、自ら考える習慣を失いやすくなると警告している。

彼は様々な公の場で次のように述べている。 「それに依存するようになる」言い換えれば、AIがほとんど意識することなく私たちの代わりに作業をこなすようになると、文章作成から報告書からの結論の導出、データの解釈まで、精神的な労力を必要とするあらゆる作業をAIに任せたくなる誘惑に駆られるかもしれない。

バルセロナでの講演で、ウォズニアックはそれを直接 批判的思考力の喪失彼は、人々がAIが生成した結果を疑問視したり、検証したり、独自の基準を加えたりすることなく、あたかも自分の結果であるかのように提示し始めると、それがあらゆる問題に対する「安易な解決策」になってしまう危険性があると述べた。

  Semantic Sc​​holarとは:AIを活用した学術検索エンジン

彼にとって重要なのは、AIは人間の判断の代替ではなく、あくまで補助として使うべきだということだ。彼は、人々が… 受け取った情報を解釈する彼は情報源を比較検討し、特にディープフェイク、フェイクニュース、操作されたコンテンツが蔓延する状況においては、目にしたものを疑う傾向がある。

この点に関して、ウォズニアックは、AIツールには以下が含まれるべきだと主張している。 明確な透明性メカニズムこれには、各情報の出典を示すこと、あるいは特定の回答に影響を与えた情報源を示すことが含まれます。彼らは、これによりユーザーがコンテンツが有用か、信頼できるか、あるいは疑問を持つべきかどうかを判断するのに役立つと考えています。

ChatGPT、Apple Intelligence、その他のシステムの台頭に関するウォズニアックの見解

ウォズニアックの批判的な姿勢は、現在の多くのテクノロジーリーダーの熱意とは著しく対照的である。 ジェンセン・フアン(Nvidia)またはサム・アルトマン(OpenAI) 人工知能がほぼすべてのことを人間に代わってやってくれる未来像を提唱する人もいる一方で、彼ははるかに慎重な姿勢を保っている。

Appleは積極的にこの流れに乗り、独自のブランドの下でエコシステムを構築している。 アップルインテリジェンスウォズニアック氏は、もし同社に残るなら、アプローチは異なると明言している。彼は、現在の構造のAIは、 「欠点が多すぎる」 まるで何の躊躇もなく彼女を抱きしめるかのように。

彼は、AIに2つの物体の違いを尋ねると、長くて詳細でかなり正確な説明が得られると述べた。しかし、同じ質問を人間に尋ねると、おそらく 物語、逸話、または実例を挙げて答えてください。単に事実を羅列するのではなく、物語性や感情的な要素を重視する。

彼はまた、自動化の潜在的な影響について警告したのは今回が初めてではないことを思い出した。2011年に彼は、私たちがコンピューターや何かをしてくれるシステムを発明するたびに、 それは私たちの存在意義を少し低下させる。 その特定のタスクに関しては。2018年には、彼はややトーンを和らげ、「AI」とは単に、コンピュータがその時点で実行できる最新の機能を指すことが多いと指摘した。

しかし、大規模言語モデルの登場とチャットボットブームにより、彼はある程度の懐疑心を取り戻した。彼はイーロン・マスクなどの他の人物と共に署名し、 最も強力なシステムの開発を一時停止するよう求める公開書簡雇用、民主主義、そして偽情報への影響について警告を発している。

「思考しない」AI:見事に提示されたビッグデータだが、独自の意思を持たない。

ウォズニアックは最近のインタビューで、自身のビジョンを力強い言葉で要約している。 「現在のAIは愚かで、思考能力がない。」これはモデルが無用だという意味ではなく、むしろ彼の意見では、私たちがそれらを本来の用途とは異なるカテゴリーに分類しているということだ。

彼は、これらのツールは意識的な心ではなく、 ビッグデータを活用する深層学習モデル彼らが基本的に行っていることは、トレーニング中に学習した統計的パターンに基づいて、次にどの単語、画像、または断片が来るかを決定するための確率を計算することです。

だから彼は自分の結果を次のように定義する 「多かれ少なかれ優雅に吐き出されたビッグデータ」彼らは人間らしい返答をすることができるが、実際には、何千回も見てきた例や構造を単に組み合わせているだけで、自分の発言の深い意味や返答の結果を理解していない。

ウォズニアックは自身のテストで、生成されたテキストの多くが… 平坦で、退屈で、非人間的彼には自発性、真の驚きを感じる能力、そして何よりも発言内容に対する個人的な責任感が欠けている。彼にとって、これは有意義なコミュニケーションにおいて不可欠な要素なのだ。

あらゆることにもかかわらず、彼はテクノロジーがどこまで進歩するかを見るのが楽しみだと認めている。 AIは非常に急速に成長している そして、この進歩のペースこそがまさに最大の強みであると彼は考えている。開発が強力な規制を伴う限り、現在の欠点のいくつかは時間をかけて軽減できると彼は確信している。

リスク、規制、透明性:ウォズニアックがAIに求めているもの

ウォズニアックは批判するだけでなく、具体的な変更も提案している。彼が最も頻繁に要求する内容の一つは、 AIはより透明性が高まるだろう彼は、システムは提示するあらゆるフレーズ、データ、または発言の出所を常に明らかにすべきだと主張している。

  すべてのデバイスでApple IDアカウントを段階的に作成する方法

彼の意見では、ユーザーがはっきりと見ることができれば それぞれの情報はどこから得られたものですか?これにより、信頼性の評価、偏りの検出、疑わしい素材の使用状況の発見が容易になる。また、フェイクニュースの拡散や著作権で保護されたコンテンツの無断使用といった問題への対処にも役立つだろう。

さらに、ウォズニアックは、AIは可能な限り、 オープンソース彼は、透明性を高めることで独立した監査が可能になり、セキュリティが向上し、最先端モデルを支配する少数の巨大テクノロジー企業への権力集中を軽減できると考えている。

彼はまた、次のような非常に具体的な脅威についても警告した。 ディープフェイクやその他の形態の視聴覚操作同報告書は、こうした利用は国民の信頼を著しく損ない、詐欺を助長し、真偽を見分ける作業をさらに複雑にする可能性があると警告している。

これらの理由から、彼は政府と規制当局が迅速に行動しなければならないと主張している。 明確かつ厳格な基準を確立するイノベーションを阻害するためというよりは、AIが責任を持って使用されること、どのコンテンツが機械によって生成されたものかを容易に識別できること、そしてAIが引き起こす可能性のある損害に対して必ず誰かが責任を負うことを確実にするためである。

巨大なバブル、雇用、そしてこの分野の未来

経済状況も議論の一部です。近年、私たちが直面しているのかどうかについて多くの議論がなされてきました。 崩壊する可能性のある「AIバブル」Nvidiaのような企業は、株価が急騰しており、一部のアナリストによれば、その水準を実際の利益で正当化するには数十年かかるだろうという。

BaiduのCEOであるRobin Liのような幹部は、 AI企業の99%はいずれ消滅するだろうこれにより、OpenAI、Google、Microsoft、あるいは中国の大手複合企業といった少数の巨大企業が市場を支配することになる。その結果、ごく少数の企業が世界の人工知能の基盤インフラを支配するという状況が生まれる。

同時に、雇用への影響についても懸念がある。多数の報告によると、AIは それは数千もの雇用を消滅させたり、形を変えたりする可能性がある。特に反復作業や容易に自動化できる作業においては、その傾向が顕著である。同時に、これらのシステムの設計、監視、保守に関連する新たな雇用が生まれるだろうという見方もある。

最近の調査によると、テクノロジー分野内でも、 かなりの懐疑論があるこの分野の労働者の半数以上が、AIは過大評価されている、あるいは少なくとも、マーケティングの演説で約束されているほど多くの革新的な活用事例は実現していないと考えている。

ウォズニアックもこうした疑問の一部を共有している。彼は、我々はまだ この技術の非常に初期段階これは、インターネット黎明期に匹敵する状況だ。当時は、数十年後にインターネットがどのような姿になるのか想像することさえ難しかった。彼は、未来のAIが現在とは根本的に異なるものになる可能性を否定しないものの、権力がどのように分配され、この革命から真に利益を得るのは誰なのかを注意深く監視する必要があると主張する。

総合すると、スティーブ・ウォズニアックの人工知能のビジョンは、 技術進歩への賞賛と、非常に強い不信感が混じり合っている 彼は、現代のモデルが何ができるか、そして何よりも、私たちがそれらをどのように活用しているかに焦点を当てています。彼にとって、AIは非常に強力なツールですが、人間のように考えたり、感じたり、責任を負ったりする能力はまだ持っていません。そのため、彼のメッセージは明確です。AIを活用するのは良いことですが、私たちの創造性、意思決定、そして判断力をAIに取って代わらせてはならない、ということです。

Apple-1 最も高価な Apple 製品
関連記事
これまでに提供された中で最も高価な Apple 製品