株式会社TIMEWELLの濱本です。
人工知能指数レポート(2023年版)①
引用:https://aiindex.stanford.edu/report/?fbclid=IwAR1wU03hjz1VgwjxeVVTDlHXXQMyevXxX oTY8PEHYQ2FRhlAOMW1brU5A
AI Index Reportの第6版へようこそ!今年のレポートは、以前のいずれの版よりも多くの独 自データを紹介しています。AIの世論に関する新しい章、より詳細な技術的なパフォーマ ンスの章、大規模言語モデルやマルチモーダルモデルに関する分析、グローバルなAI法制 度記録のトレンド、AIシステムの環境影響の研究などが含まれます。
AI Index Reportは、人工知能に関連するデータを追跡、収集、蒸留、視覚化することを目 的としています。私たちの使命は、政策立案者、研究者、経営者、ジャーナリスト、一般の 人々が、複雑なAI分野についてより詳細で洞察力のある理解を発展させるために、偏見の ない、厳密に検証された、幅広くソースのあるデータを提供することです。レポートは、 AIに関するデータと洞察に関して世界で最も信頼できる権威的な情報源を目指していま す。
共同ディレクターからのメッセージ
人工知能は、発展の時代に移行しました。2022年から2023年の初めにかけて、新しい大規 模なAIモデルが毎月リリースされました。これらのモデルには、ChatGPT、Stable Diffusion、Whisper、DALL-E 2などがあり、テキスト操作や分析から画像生成、前例のな いほど優れた音声認識まで、ますます幅広いタスクを実行できるようになっています。これ らのシステムは、10年前には想像できなかったテキスト、画像、コードの生成や質問応答 の能力を示し、多くの既存および新しいベンチマークで最先端の技術を上回っています。し かし、これらのシステムは幻覚を起こしやすく、偏りがあり、悪意ある目的に使われること があり、その展開に関連する複雑な倫理的課題を浮き彫りにしています。
2022年は、民間のAI投資が10年ぶりに減少した年でしたが、AIは依然として政策立案者、 業界リーダー、研究者、一般の人々にとって大きな関心事です。政策立案者たちは、AIに ついて今まで以上に話し合っています。AIを事業に統合した業界リーダーたちは、具体的なコストと収益の恩恵を見ています。AIの出版物と共同研究の数は増加し続けています。
そして一般の人々も、AIについてどの要素が好きでどの要素が嫌いか、より鋭い意見を持 つようになっています。
AIは今後も改良され、私たちの生活のますます重要な一部になっていくでしょう。この技 術の存在感が高まり、大規模な混乱を引き起こす可能性があるため、AIの開発と展開につ いてより批判的に考え始める必要があります。また、誰がそれを展開しているかについても 質問する必要があります。私たちの分析によると、AIはますます私企業の行動によって定 義されており、広い範囲の社会的行為者によって定義されているわけではありません。今年 のAI Indexは、現在のAIの状況を描写し、将来に何が待ち受けているかを強調するために作 成されました。
ジャック・クラークとレイ・ペロー(AI Index Reportの共同ディレクター)
主な10のまとめ
業界が学界を追い抜く 2014年まで、最も重要な機械学習モデルは主に学界によって開発されていました。
その後、業界が主導権を握りました。2022年には、学界が作成した重要な機械学習 モデルはわずか3つに対し、業界が作成した32のモデルがありました。最先端のAI システムを構築するには、ますます多くのデータ、コンピューターの処理能力、お よび資金が必要となり、それらの資源を非営利団体や学界に比べて、業界がより優 位に持っているためです。
伝統的なベンチマークでの性能飽和 AIは最先端の結果を残し続けていますが、多くのベンチマークでの年間改善はわず かであることが続いています。さらに、ベンチマークの飽和が達成される速度が増 しています。しかし、BIG-benchやHELMなどの新しいより包括的なベンチマークス イートがリリースされています。
AIは環境にとって利益と損害の両方をもたらす 新しい研究によると、AIシステムは深刻な環境影響を与える可能性があります。
Luccioniらによると、2022年にリリースされたBLOOMのトレーニングランは、 ニューヨークからサンフランシスコへの片道旅行をする1人の航空旅客よりも25倍も の二酸化炭素を排出しました。しかし、BCOOLERのような新しい強化学習モデル は、AIシステムを使用してエネルギー使用を最適化できることを示しています。
AIが世界最高の科学者に? AIモデルは、科学の進歩を急速に加速し始め、2022年には水素融合の支援、行列操 作の効率化、および新しい抗体の生成に使用されました。
AIの誤用に関する事件数が急速に増加している。
AIの倫理的な誤用に関連する事件を追跡するAIAAICデータベースによると、2012 年以来、AIの事件や論争の数は26倍増加しました。2022年の注目すべき事件には、 ウクライナ大統領のウォロディミル・ゼレンスキーが降伏する深センのビデオや、 米国の刑務所が受刑者に対して通話監視技術を使用するなどがあります。この成長 は、AI技術のより大きな使用と、誤用の可能性に対する認識の増加を示していま す。
AI関連の職業スキルの需要が、ほぼすべての米国産業部門で増加している 米国のすべてのセクターにおいて(農業、林業、漁業、および狩猟を除く)、AI関 連の求人数は2021年の平均1.7%から2022年には1.9%に増加しました。米国の雇用 主は、AI関連のスキルを持つ労働者を求める傾向が増しています。
過去10年で初めて、AIへの民間投資が前年比で減少した 2022年のグローバルAI民間投資額は919億ドルで、2021年に比べて26.7%減少しま した。AI関連の資金調達イベントの総数や、新たに資金調達されたAI企業の数も減 少しました。それでも、過去10年間においてAIへの投資額は著しく増加していま す。2022年におけるAIへの民間投資額は、2013年の18倍に増加しました。
AIを採用した企業の比率は頭打ちになっているが、AIを採用した企業は依然として リードしている マッキンゼーの年次調査の結果によると、2022年にAIを採用した企業の割合は、 2017年以来倍増していますが、最近は50%から60%の間で頭打ちになっています。
AIを採用した組織は、有意義なコスト削減と収益増加を実現していると報告してい ます。
政策立案者のAIに対する関心が高まっている AI Indexによる127カ国の立法記録の分析によると、「人工知能」を含む法案の成立 数は、2016年のわずか1つから2022年には37つに増加しました。同様に、81カ国の 議会記録のAI分析も、2016年以来、世界の立法手続きでのAI言及が約6.5倍増加し ていることを示しています。
中国の市民はAI製品やサービスに最も肯定的な印象を持っている 一方、アメリカ人はあまりそうではない。
2022年のIPSOSの調査によると、中国の 回答者の78%(調査対象国の中で最も高い割合)が、AIを利用した製品やサービス には利点が欠点よりも多いという主張に同意しました。中国の回答者に続いて、サ ウジアラビア(76%)とインド(71%)の回答者が、AI製品について最も肯定的な 印象を持っていました。調査対象国の中でもっとも低かったアメリカ人の回答者の 中で、AIを利用した製品やサービスには利点が欠点よりも多いと考える人は35%に 過ぎませんでした。
運営委員会 共同ディレクター:
運営委員会 共同ディレクター:
● Jack Clark(Anthropic, OECD)
● Raymond Perrault(SRI International)
メンバー:
● Erik Brynjolfsson-Stanford University
● Katrina Ligett-Hebrew University
● Juan Carlos Niebles-Stanford University, Salesforce
● Yoav Shoham (Founding Director) -Stanford University, AI21 Labs
● John Etchemendy-Stanford University
● Terah Lyons
● James Manyika Google-University of Oxford
● Vanessa Parli-Stanford University
● Russell Wald-Stanford University
スタッフと研究者 研究マネージャーおよび編集長:
● Nestor Maslej-Stanford University 研究アシスタント:
● Loredana Fattorini-Stanford University 関連研究者:
● Elif Kiesow Cortez-Stanford Law School Research Fellow
● Helen Ngo-Hugging Face
● Robi Rahman-Data Scientist
● Alexandra Rome-Freelance Researcher
大学院生研究者:
● Han Bai-Stanford University
学部生研究者:
● Vania Chow-Stanford University
● Siddhartha Javvaji-Stanford University
● Mena Hassan-Stanford University
● Naima Patel-Stanford University
● Sukrut Oak-Stanford University
● Stone Yang-Stanford University
● Lucy Zimmerman-Stanford University
● Elizabeth Zhu-Stanford University
このレポートの引用方法
Nestor Maslej, Loredana Fattorini, Erik Brynjolfsson, John Etchemendy, Katrina Ligett, Terah Lyons, James Manyika, Helen Ngo, Juan Carlos Niebles, Vanessa Parli, Yoav Shoham, Russell Wald, Jack Clark, and Raymond Perrault, “The AI Index 2023 Annual Report,” AI Index Steering Committee, Institute for Human-Centered AI, Stanford University, Stanford, CA, April 2023.
Stanford Universityによる「The AI Index 2023 Annual Report」は、 Attribution-NoDerivatives 4.0 Internationalに基づくライセンスが適用されています。
公開データとツール
AI Index 2023レポートは、生データとインタラクティブツールで補完されています。
私た ちは、各読者が、自分の仕事や興味に最も関連する方法でデータとツールを利用することを 歓迎します。
生データとチャート:公開データと、レポートのすべてのチャートの高解像度画像がGoogle Driveで入手可能です。
Global AI Vibrancyツール:21の指標を横断して30カ国まで比較することができます。
Global AI Vibrancyツールは、2023年後半に更新されます。
AI IndexとStanford HAI
AI Indexは、Stanford Institute for Human-Centered Artificial Intelligence(HAI)の独立し たイニシアチブです。
AI Indexは、One Hundred Year Study on AI(AI100)の枠組み内で構想されました。
貢献者
AI Index 2023レポートに含まれるデータ、分析、アドバイス、専門家のコメントの寄稿に ついて、以下の個人を章およびセクションごとに評価したいと思います。
研究開発: Sara Abdulla、Catherine Aiken、Luis Aranda、Peter Cihon、Jack Clark、 Loredana Fattorini、Nestor Maslej、Besher Massri、Vanessa Parli、Naima Patel、Ray Perrault、Robi Rahman、Alexandra Rome、Kevin Xu
技術性能: Jack Clark、Loredana Fattorini、Siddhartha Javvaji、Katrina Ligett、Nestor Maslej、Juan Carlos Niebles、Sukrut Oak、Vanessa Parli、Ray Perrault、Robi Rahman、 Alexandra Rome、Yoav Shoham、Elizabeth Zhu
技術的なAI倫理: Jack Clark、Loredana Fattorini、Katrina Ligett、Nestor Maslej、Helen Ngo、Sukrut Oak、Vanessa Parli、Ray Perrault、Alexandra Rome、Elizabeth Zhu、Lucy Zimmerman
経済: Susanne Bieller、Erik Brynjolfsson、Vania Chow、Jack Clark、Natalia Dorogi、 Murat Erer、Loredana Fattorini、Akash Kaura、James Manyika、Nestor Maslej、Layla O’Kane、Vanessa Parli、Ray Perrault、Brittany Presten、Alexandra Rome、Nicole Seredenko、Bledi Taska、Bill Valle、Casey Weston
教育: Han Bai、Betsy Bizot、Jack Clark、John Etchemendy、Loredana Fattorini、Katrina Ligett、Nestor Maslej、Vanessa Parli、Ray Perrault、Sean Roberts、Alexandra Rome
政策とガバナンス: Meghan Anand、Han Bai、Vania Chow、Jack Clark、Elif Kiesow Cortez 、Rebecca DeCrescenzo、Loredana Fattorini、Taehwa Hong、Joe Hsu、Kai Kato、Terah Lyons、Nestor Maslej、Alistair Murray、Vanessa Parli、Ray Perrault、Alexandra Rome、 Sarah Smedley、Russell Wald、Brian Williams、Catherina Xu、Stone Yang、Katie Yoon、 Daniel Zhang
多様性: Han Bai、Betsy Bizot、Jack Clark、Loredana Fattorini、Nezihe Merve Gürel、 Mena Hassan、Katrina Ligett、Nestor Maslej、Vanessa Parli、Ray Perrault、Sean Roberts、 Alexandra Rome、Sarah Tan、Lucy Zimmerman
公共の意見: Jack Clark、Loredana Fattorini、Mena Hassan、Nestor Maslej、Vanessa Parli 、Ray Perrault、Alexandra Rome、Nicole Seredenko、Bill Valle、Lucy Zimmerman
会議参加: Terri Auricchio(ICML)、Lee Campbell(ICLR)、Cassio de Campos(UAI )、Meredith Ellison(AAAI)、Nicole Finn(CVPR)、Vasant Gajanan(AAAI)、Katja Hofmann(ICLR)、Gerhard Lakemeyer(KR)、Seth Lazar
以下の団体と個人に、AI Index 2023レポートに含まれるデータを提供していただいたこと に感謝いたします。
団体
Code.org
・Sean Roberts
Center for Security and Emerging Technology, Georgetown University ・Sara Abdulla ・Catherine Aiken
Computing Research Association ・Betsy Bizot
GitHub ・Peter Cihon ・Kevin Xu
Govini ・Rebecca DeCrescenzo ・Joe Hsu ・Sarah Smedley
Lightcast ・Layla O’Kane ・Bledi Taska
LinkedIn ・Murat Erer ・Akash Kaura ・Casey Weston
McKinsey & Company ・Natalia Dorogi ・Brittany Presten
NetBase Quid ・Nicole Seredenko ・Bill Valle
OECD.AI Policy Observatory ・Luis Aranda ・Besher Massri
Women in Machine Learning ・Nezihe Merve Gürel ・Sarah Tan
また、Jeanina Casusi、Nancy King、Shana Lynch、Jonathan Mindes、Michi Turner、 Madeleine Wrightがこのレポートの準備において支援してくれたこと、Joe HinmanとSantanu MukherjeeがAI Indexのウェブサイトを維持するために助けてくれたことにも感謝いたしま す。
目次
レポートのハイライト
第1章 研究開発
第2章 技術的パフォーマンス
第3章 技術的AI倫理
第4章 経済
第5章 教育
第6章 政策とガバナンス
第7章 ダイバーシティ
第8章 世論調査
レポートのハイライト 第1章:研究開発
2010年から2021年までの間に、アメリカと中国はAI出版物で最も多くの国境を越えた共同 研究を行っており、しかし、共同研究のペースは鈍化しています。
アメリカと中国の間のAI研究の共同研究は、2010年以来約4倍に増加し、次に多い国のペア であるイギリスと中国の共同研究合計の2.5倍以上になりました。ただし、アメリカと中国 の共同研究の総数は、2020年から2021年にかけて2.1%増加し、2010年以来最も小さい年 間成長率となりました。
AI研究は全般的に増加しています。AI出版物の総数は2010年以来倍増しました。依然とし て支配的なAIのトピックには、パターン認識、機械学習、およびコンピュータビジョンが 含まれます。
中国は、AIジャーナル、カンファレンス、およびリポジトリ出版物の総数でリードを続け ています。
アメリカはAIカンファレンスとリポジトリの引用においては依然として先行し ていますが、そのリードは徐々に薄れています。それでも、世界の大規模言語およびマルチ モーダルモデルの大多数(2022年時点で54%)はアメリカの機関によって生産されていま す。
産業界は学界を追い越しています。2014年までは、最も重要な機械学習モデルは学界に よってリリースされていました。その後、産業界が引き継ぎました。2022年には、学界が 製造したわずか3つの機械学習モデルに対して、32の重要な産業界製造の機械学習モデルが あります。
最先端のAIシステムを構築するには、ますます大量のデータ、コンピュータの 処理能力、そして資金が必要とされています。これらのリソースは、非営利団体や学界に比 べ、産業界の参加者が本来持っている量が多いためです。
大規模言語モデルは、ますます大きく、高価になっています。2019年にリリースされた GPT-2は、多くの人々にとって最初の大規模言語モデルと考えられており、15億のパラメータを持ち、トレーニングに約50,000米ドルかかりました。2022年にリリースされたフ ラッグシップの大規模言語モデルの1つであるPaLMは、5400億のパラメータを持ち、ト レーニングに約800万米ドルかかりました。PaLMは、GPT-2より約360倍大きく、160倍以 上の費用がかかりました。PaLMだけでなく、大規模言語およびマルチモーダルモデル全般 において、大きく、高価になっています。
第2章:技術的パフォーマンス
従来のベンチマークにおいて、パフォーマンスの飽和が生じている。AIは最先端の結果を 続けて投稿していますが、多くのベンチマークにおける年間改善は依然として限定的なもの となっています。さらに、ベンチマークの飽和が達成される速度は増加しています。ただ し、BIG-benchやHELMなどの新しい、より包括的なベンチマークスイートがリリースされ ています。
生成AIが一般の意識に入ってきた。2022年には、DALL-E 2やStable Diffusionなどのテキ ストから画像を生成するモデル、Make-A-Videoなどのテキストから動画を生成するシステ ム、ChatGPTのようなチャットボットがリリースされました。しかし、これらのシステム は幻覚に陥る可能性があり、一貫性のないまたは真実でない回答を自信を持って出力するた め、重要なアプリケーションに頼ることが困難な場合があります。
AIシステムがより柔軟になっています。従来のAIシステムは、限定されたタスクではうま く機能していましたが、より広範なタスクでは苦戦していました。最近リリースされたモデ ルは、その傾向に挑戦しています。BEiT-3、PaLI、Gatoなどのモデルは、単一のAIシステ ムで、ビジョン、言語など、複数のタスクをナビゲートする能力が増しています。
高性能な言語モデルは推論に苦戦しています。言語モデルは生成能力を改善し続けています が、新しい研究では、複雑な計画タスクに対してまだ苦戦していることが示唆されていま す。
AIは環境にとって助けとなる一方で、害をもたらす可能性があります。新しい研究による と、AIシステムは深刻な環境影響をもたらすことがあります。Luccioniら(2022)によると、 BLOOMのトレーニングランは、ニューヨークからサンフランシスコへの片道航空旅行の一 人あたりの排出量の25倍以上の炭素を排出しました。それでも、BCOOLERのような新しい 強化学習モデルは、AIシステムを使用してエネルギーの使用を最適化することができることを示しています。
世界で最も優れた新しい科学者はAI? AIモデルは科学の進歩を急速に加速し始め、2022年 には水素核融合の支援、行列操作の効率向上、および新しい抗体の生成に使用されました。
AIがより優れたAIを構築し始めました。Nvidiaは、AI強化学習エージェントを使用して、 AIシステムを駆動するチップの設計を改善しました。同様に、Googleは最近、自社の言語 モデルPaLMを使用して、同じモデルを改善する方法を提案しました。自己改善型のAI学習 により、AIの進歩が加速されます。
第3章:技術的AI倫理
モデルのスケールが偏りや毒性に与える影響は、トレーニングデータや緩和方法によって複 雑になっています。過去1年間、いくつかの機関が独自のデータでトレーニングされた大規 模なモデルを構築しましたが、大規模なモデルはまだ毒性がある上に、偏りがあります。し かし、新しい証拠は、指導チューニングによる大規模なモデルのトレーニング後、これらの 問題をある程度緩和できることを示唆しています。
生成モデルが登場し、それに伴う倫理的な問題も浮き彫りになっています。2022年には、 生成モデルが時代の一部になりました。これらのモデルは能力がありますが、同時に倫理的 な課題も抱えています。テキストから画像を生成するモデルは、定期的にジェンダーの偏り があり、ChatGPTなどのチャットボットは悪質な目的に利用されることがあります。
AIの不適切な使用に関するインシデントの数が急速に増加しています。AIの倫理的な誤用 に関連するインシデントを追跡するAIAAICデータベースによると、2012年以来、AIのイ ンシデントと論争の数は26倍増加しました。2022年の注目すべきインシデントには、ウク ライナ大統領のヴォロディミル・ゼレンスキーが降伏するディープフェイク動画や、アメリ カの刑務所が受刑者に通話監視技術を使用することが含まれています。この成長は、AI技 術のより広範な使用と、誤用の可能性への認識の両方を示しています。
より公正なモデルは必ずしも偏りが少なくなるとは限らない。言語モデルの詳細な分析によ ると、パフォーマンスと公正性の間には明確な相関関係がある一方で、公正性と偏りは矛盾 することがあります。特定の公正性のベンチマークでより優れたパフォーマンスを発揮する 言語モデルほど、ジェンダーに偏った結果を示す傾向があるようです。
AI倫理に対する関心は依然として急速に高まっています。主要なAI倫理会議であるFAccTへの受け入れられた論文の数は、2021年以降に2倍以上増加し、2018年以来10倍増加しま した。2022年には、産業界からも過去最多の論文が提出されました。
自然言語処理による自動ファクトチェックは、思ったほど簡単ではありません。自動ファク トチェックのためにいくつかのベンチマークが開発されていますが、研究者たちは、16の データセットのうち11つが、主張が出された当時存在しなかったファクトチェック報告か らの証拠に依存していることがわかりました。
第4章:経済
アメリカのあらゆる産業部門で、AIに関連する専門的なスキルの需要が増加しています。
農林業、漁業、狩猟を除くアメリカのあらゆるセクターにおいて、AIに関連する求人数 は、2021年の平均1.7%から2022年には1.9%に増加しました。アメリカの雇用主は、AIに 関連するスキルを持つ労働者をますます求めています。
過去10年間で初めて、AIに対する民間投資の年々の成長率が低下しました。2022年のグ ローバルAI民間投資は919億ドルで、2021年から26.7%減少しました。AIに関連する資金 調達イベントの総数や、新規に資金調達されたAI企業の数も同様に減少しました。それで も、過去10年間全体を通じて、AIへの投資は著しく増加しています。2022年のAIへの民間 投資額は、2013年の18倍以上になりました。
再び、アメリカがAIへの投資で世界をリードしています。アメリカは、AIに対する民間投 資の総額で世界をリードしています。2022年には、アメリカへの投資額は474億ドルで、次 に多かった中国(134億ドル)の約3.5倍でした。アメリカはまた、新規に資金調達された AI企業の総数でも世界をリードし、欧州連合と英国を合わせた数の1.9倍、中国の3.4倍にな りました。
2022年、最も投資が集中したAI分野は医療・保健(61億ドル)で、次いでデータ管理、処 理、クラウド(59億ドル)、Fintech(55億ドル)でした。ただし、AIに対する民間投資全 体の傾向を反映して、ほとんどのAI分野が2022年には2021年よりも少ない投資を見まし た。過去1年間で、最大の3つのAI民間投資イベントは、(1)電気自動車の中国メーカーで あるGAC Aion New Energy Automobileに対する25億ドルの資金調達イベント、(2)軍事機 関や国境監視のための技術を構築する米国の国防製品会社であるAnduril Industriesの15億 ドルのシリーズE資金調達ラウンド、(3)ドイツに拠点を置くビジネスデータコンサルティング会社であるCelonisへの12億ドルの投資でした。
AIを採用する企業の割合は頭打ちになっていますが、AIを採用した企業は依然としてリー ドしています。マッキンゼーの年次調査によると、2022年にAIを採用した企業の割合は、 2017年以来2倍以上に増加しましたが、近年は50%から60%の間で頭打ちになっていま す。AIを採用した組織は、コストの削減や収益の増加など、意義ある結果を報告していま す。
企業によってAIが多面的に展開されています。ビジネスに組み込まれる可能性が最も高い AIの機能には、ロボティック・プロセス・オートメーション(39%)、コンピュータ・ビ ジョン(34%)、自然言語テキスト理解(33%)、仮想エージェント(33%)が含まれま す。また、2022年に最も一般的に採用されたAIの用途は、サービスの最適化(24%)であ り、次いで新しいAIベースの製品の開発(20%)、顧客セグメンテーション(19%)、顧 客サービスの分析(19%)、製品の新しいAIベースの強化(19%)が続きます。
CopilotなどのAIツールは、労働者たちに具体的な助けを提供しています。GitHubの調査結 果によると、テキストからコードを生成するAIシステムであるCopilotを使用することで、 調査対象者の88%がより生産的になり、74%がより満足のいく仕事に集中できるようにな り、88%がタスクをより迅速に完了できると感じています。
中国が産業用ロボットの設置数で圧倒的な存在になっています。2013年に中国は日本を抜 き、最も多くの産業用ロボットを設置する国となりました。それ以降、中国が設置した産業 用ロボットの総数と、次に多い国との差は拡大しています。2021年、中国が設置した産業 用ロボットの数は、世界の他の国々の合計を上回りました。
第5章:教育
AIに特化した博士課程がますます増加しています。米国の大学で新しく博士号を取得した コンピュータサイエンスの卒業生のうち、AIに特化した割合は、2010年の10.2%から、 2020年の14.9%、2021年には19.1%に急増しました。
新しいAIの博士号を取得した人の多くが産業界に就職しています。2011年には、新しいAI の博士号を取得した卒業生の約同じ割合が、産業界(40.9%)に就職したのと同じくらい、 または学界(41.6%)に就職しました。しかし、その後、多数のAIの博士号を持つ人々が 産業界に向かうようになりました。2021年には、AIの博士号を取得した人の65.4%が産業界に就職し、学界に就職した28.2%の倍以上になりました。
北米のコンピュータサイエンス(CS)、コンピュータエンジニアリング(CE)、情報学の 新しい教員採用は横ばいの状態です。過去10年間、北米のコンピュータサイエンス(CS )、コンピュータエンジニアリング(CE)、情報学の新しい教員採用の総数は減少してい ます。2012年には733人だった新規採用は、2021年には710人になりました。同様に、テ ニュア・トラックの新規採用数は2019年に422人をピークにして、2021年には324人に減少 しました。
アメリカのCS(コンピュータサイエンス)部門における民間と公共部門の外部研究資金の 差が広がり続けています。2011年には、アメリカの民間および公共のCS部門の外部資金か らの総支出額の中央値はほぼ同じでした。その後、民間のCS部門が公共大学よりも数百万 ドル多くの追加資金を受け取るようになり、差が広がっています。2021年には、民間大学 の中央値の支出は970万ドルで、公共大学の570万ドルよりも高かった。
K-12年生向けAIおよびコンピュータサイエンス教育に対する関心が、米国および世界中で 高まっています。2021年には、181,040人の米国の学生がAPコンピュータサイエンス試験 を受験し、前年比1.0%増加しました。2007年以来、APコンピュータサイエンス試験の受 験者数は9倍に増加しています。2021年現在、ベルギー、中国、韓国を含む11カ国が、 K-12年生向けAIカリキュラムを公式に支持および実施しています。
第6章:政策とガバナンス
AIに関する政策立案者の関心が高まっています。AI Indexの分析によると、127の国の立法 記録に含まれる「人工知能」を含む法案の数は、2016年のわずか1つから2022年の37つに 増加しました。同様に、81か国の議会記録におけるAIの言及も、2016年以来約6.5倍増加し ています。
「AI Index」の分析によると、アメリカ合衆国でのAI関連法案が制定された数は増加してい ます。2016年には1つだけであった「人工知能」を含む法案の数が、2022年には37にまで 増加しました。同様に、81か国の議会記録におけるAIに関する言及も、2016年以来約6.5倍 に増加しています。さらに、2021年にはアメリカ合衆国でAI関連法案の成立率が2%だった のに対し、2022年には10%に跳ね上がりました。同様に、昨年は州レベルでのAI関連法案 の35%が成立しました。AIに関して、政策立案者は多くの考えを持っています。多様な国々の議会での議事録の質 的分析から、政策立案者はAIを多様な観点から考えていることが明らかになっています。
例えば、2022年には、イギリスの立法者はAIによる自動化のリスクについて議論し、日本 の立法者はAIの中で人権を守る必要性を検討し、ザンビアの立法者は気象予測にAIを使用 する可能性を考えました。
米国政府はAIに対する支出を増やし続けている。2017年以来、米国政府がAI関連契約に支 出した金額は、およそ2.5倍に増加している。
法律界でもAIに目覚めが見られます。2022年には、アメリカ合衆国の州および連邦裁判所 で110件のAI関連の法的訴訟があり、2016年の約7倍に相当します。これらの多くはカリ フォルニア、ニューヨーク、イリノイ州から発生し、民事法、知的財産法、契約法に関する 問題が取り扱われました。
第7章:多様性
北米の学士、修士、博士課程のコンピュータサイエンス学生は、人種的に多様化していま す。白人の学生は、新しい居住者の学士、修士、および博士レベルのコンピュータサイエン スの卒業生の中で最も代表的な人種ですが、他の民族背景(例:アジア人、ヒスパニック、 および黒人またはアフリカ系アメリカ人)の学生がますます代表的になっています。たとえ ば、2011年には、新しい居住者のCS学士卒業生の71.9%が白人でしたが、2021年には46.7 %に減少しました。
2021年において、新たに取得されたAIの博士号のうち、男性が78.7%を占めています。女 性の割合は21.3%であり、2011年から3.2ポイント増加しました。AIの高度な教育において は、ジェンダーの不均衡が続いています。
女性がCS、CE、情報学の教員採用で占める割合がますます高くなっています。2017年以 来、女性の新規CS、CE、情報学の教員採用の割合は、24.9%から30.2%に増加しました。
それでも、北米の大学のほとんどのCS、CE、情報学の教員は男性であり(75.9%)、2021 年時点で、わずか0.1%が非バイナリーを自認しています。
アメリカのK-12コンピュータサイエンス教育は、性別と民族においてより多様化していま す。女性学生が受験したAPコンピュータサイエンス試験の割合は、2007年の16.8%から2021年の30.6%に増加しました。年々、アジア人、ヒスパニック/ラテン系、黒人/アフリ カ系アメリカ人の学生がAPコンピュータサイエンスを受験する割合も増加しています。
第8章: 公衆の意見
中国市民は、AI製品やサービスに対して最も肯定的な見方をしている人々の一部です。ア メリカ人にはあまりそうではありません。2022年のIPSOS調査によると、AIを使用した製 品やサービスについて、「メリットがデメリットよりも多い」という主張に同意した人々の 中で、中国の回答者が最も高い78%でした。中国に続いて、サウジアラビア(76%)とイ ンド(71%)の回答者がAI製品に最も肯定的な感情を持っていました。一方、サンプルさ れたアメリカ人のうち、わずか35%しかAI製品やサービスについて「メリットがデメリッ トよりも多い」と主張しませんでした。
男性は、AI製品やサービスに対して女性よりも肯定的な印象を持ちます。また、男性は女 性よりもAIが主に役立つと信じる傾向があります。2022年のIPSOSの調査によると、男性 は、AI製品やサービスが彼らの生活をより簡単にする、AIを使用する企業を信頼する、AI 製品やサービスが利点よりも欠点が多いと感じる、といった報告を女性よりもより多く報告 しています。また、2021年にGallupとLloyd's Register Foundationが実施した調査でも、男 性は女性よりも、次の20年でAIが主に役立つという声明に同意する傾向がありました。
世界中、特にアメリカの人々は、自動運転車にはまだ納得していない。グローバル調査によ ると、自動運転車に乗っている時に安全だと感じる人は、わずか27%に過ぎない。同様 に、Pew Researchによると、アメリカ人のわずか26%が、無人運転の乗用車は社会にとっ て良いアイデアだと感じている。
米国で行われた調査によると、AIに興奮を覚える人々は、31%が生活や社会を改善する可 能性に最も興奮しており、13%が時間を節約し、物事を効率的にすることに興奮していま す。一方、懸念を感じる人々は、19%が人間の仕事の喪失、16%が監視、ハッキング、デ ジタルプライバシーの問題、12%が人間とのつながりの欠如などを心配しています。
NLP研究者にも強い意見があります。NLP研究者に広く配布された調査によると、77%が 民間AI企業が影響力を持ちすぎていると同意または弱く同意し、41%がNLPを規制すべき だと答え、73%がAIが近い将来、革命的な社会変化を引き起こす可能性があると感じてい ました。これらはNLP研究コミュニティが持つ多くの強い意見の一部でした。
このAIコラムは、オンラインアシスタントサービス 「TIMEWELL」が制作しています。
