生成的人工知能

出典: フリー百科事典『ウィキペディア(Wikipedia)』
A detailed oil painting of figures in a futuristic opera scene
スペース・オペラ・シアター(Théâtre d'Opéra Spatial)、Midjourneyによって作成された画像

生成的人工知能(せいせいてきじんこうちのう、: generative artificial intelligence)または生成AI(せいせいエーアイ、: GenAI[5])は、文字などの入力(プロンプト)対してテキスト画像、または他のメディアを応答として生成する人工知能システムの一種である[6][7]

生成的人工知能モデルは、訓練データの規則性や構造を訓練において学習することで、訓練データに含まれない新しいデータを生成することができる[8][9]ジェネレーティブAIジェネラティブAIともよばれる。

著名な生成AIシステムとして、OpenAIGPT-3GPT-4大規模言語モデル[10]を使用して構築したチャットボットChatGPT(および別形のBing Chat)や、GoogleLaMDA基盤モデルに構築したチャットボットBardがある[11]。その他の生成AIモデルとして、Stable DiffusionDALL-Eなどの人工知能アートシステムがあげられる[12]

生成AIは、アート、執筆、ソフトウェア開発、ヘルスケア、金融、ゲーム、マーケティング、ファッションなど、幅広い業界で応用できる可能性がある[13][14]。生成AIへの投資は2020年代初頭に急増し、Microsoft、Google、Baiduなどの大企業だけでなく、多数の中小企業も生成AIモデルを開発している[6][15][16]。しかし、生成AIを訓練する目的での著作物の無法図な利用や人をだましたり操作したりするフェイクニュースディープフェイクの作成など、生成AIの悪用の可能性も懸念されており[17][18][19]欧州連合における人工知能法など法規制の議論も進んでいる[20][21]。また、効果的加速主義などのシリコンバレーの技術思想との関係も話題になっている[22]

歴史[編集]

機械学習の分野では、その誕生以来、データをモデル化し予測することを目的として、統計的モデルを使用してきた。2000年代後半、ディープラーニング(深層学習)の登場により、画像や動画処理、テキスト分析、音声認識などのタスクで進化と研究が進んできた。しかし、ほとんどのディープニューラルネットワークは識別的モデルとして、画像認識 (en:英語版のような分類タスクを実行していた。

2014年、変分オートエンコーダ敵対的生成ネットワークなどの進歩により、画像のような複雑なデータの生成的モデルを学習し、生成することができる実用的なディープニューラルネットワークが登場した。

2017年、Transformerネットワークはより大規模な生成的モデルの実現を可能にし、2018年に最初の生成的事前学習トランスフォーマー(GPT)が開発された[23]。2019年、GPT-2がこれに続き、基盤モデルとして教師なし学習を多くの異なるタスクに汎化する能力を実証した[24]

2024年、映像生成AIの実用化の成功は、イラスト生成AIの成功が人間の仕事の質を超えるのと同じようになると専門家は予想している[25]

これ以降の応用面における進化については次節のモダリティを参照のこと。

モダリティ[編集]

生成AIシステムは、教師なしまたは自己教師あり機械学習を、データセットに適用することにより構築される。生成AIシステムの能力は、訓練に使用するデータセットのモダリティ種類英語版によって異なる。

生成AIは、ユニモーダルシステムとマルチモーダルシステム英語版に大分でき、ユニモーダルは1種類の入力(例:テキスト)しか受け入れないのに対し、マルチモーダルは複数種類の入力(例:テキストと画像)を受け入れることができる[26]。たとえば、OpenAIのGPT-4はテキストと画像の両方の入力を受け入れる[27]

説明文英語版付きの画像セットで訓練された生成AIシステムには、Imagen英語版DALL-EMidjourneyStable Diffusionなどがある。これらは、テキストからの画像生成英語版ニューラルスタイル変換英語版によく使われる[30]。データセットにはLAION-5B英語版などがある(コンピュータビジョンにおけるデータセット)。

  • 分子
    生成AIシステムは、アミノ酸の配列や、DNAタンパク質を表すSMILESなどの分子表現で訓練することができる。AlphaFoldのようなこれらのシステムは、タンパク質の構造予測創薬に利用されている[31]。データセットには、さまざまな生物学的データセット英語版が含まれる。
  • 音楽
    MusicLMのような生成AIシステムは、レコード音楽のオーディオ波形とテキスト注釈をともに訓練することで、たとえば「歪んだギターリフに乗った落ち着きのあるバイオリンのメロディ」といったテキスト記述に基づいて、新しい音楽サンプルを生成することができる[32]
  • 動画
    注釈付き動画で訓練された生成AIは、時間的に一貫性のあるビデオクリップを生成することができる。システムの例として、RunwayMLのGen1や[33]Meta PlatformsのMake-A-Videoがあげられる[34]
  • ロボット制御
    ロボットシステムの動きを学習させた生成AIは、モーションプランニング英語版のために新しい軌道を生成することができる。たとえば、Google ResearchのUniPiは、「青いボウルを取る」や「黄色のスポンジで皿を拭く」といったプロンプトを使用して、ロボットアームの動きを制御する[35]

課題[編集]

より簡便にメディアの生成を行うことのできる生成的人工知能に対して政府企業、個人が懸念を表明している。その中で、抗議活動や訴訟、人工知能開発の一時停止の要求が行われている。また、各国政府は規制を検討するなどしている。

2023年5月に開催されたG7広島サミットでは広島AIプロセスを採択し、その中で安全、安心、信頼できるAIの実現に向けてAIライフサイクル全体の関係者それぞれが異なる責任を持つ目的でリスクの低減などの方針を定める「全てのAI関係者向けの広島プロセス国際指針」を整理した。[36]

アントニオ・グテーレス国連事務総長は2023年7月の国連安全保障理事会の会見において、AIは「世界の発展を加速」し、莫大な富を齎す可能性があると述べた。一方で、使い方によっては「想像を絶する規模での死と破壊、広範囲に及ぶトラウマ、深刻な心理的ダメージを引き起こす可能性がある」と述べた[37]

失業[編集]

2023年のSAG-AFTRAストライキ英語版において「生成AIの利用の制限」は要求の1つだった。[38]

AI開発の初期の頃より、どのような仕事がコンピュータによって実行可能であり、実行させるべきかであるかの議論がELIZAの開発者であるジョセフ・ワイゼンバウムらによって進められてきた[39]

生成的人工知能によるイラストレータや俳優、声優などのクリエイターの失業が懸念されている。2023年4月の時点で画像生成AIにより中国のイラストレーターの仕事の70%が失われていると報告されている[40][41]。2023年7月には生成AIの開発が2023年のハリウッド労働争議英語版の一因となった。映画俳優組合の会長フラン・ドレッシャーは、2023年のSAG-AFTRAストライキ英語版中に「人工知能はクリエイティブな職業に存続の脅威をもたらす」と宣言した[42]。 音声生成AIは、声優業界への潜在的な脅威とみなされている[43][44]

フェイク情報の作成[編集]

エリオット・ヒギンズ英語版がMidjourneyを用いて生成したドナルド・トランプが逮捕される様子を描いたディープフェイク画像(2023)

これまでも古典的な画像処理技術などでフェイク情報は作成されてきたが、生成的人工知能によって画像や映像、音声、文章などの生成/捏造がより高精度に且つ容易になるため、詐欺世論操作プロパガンダ名誉毀損等に悪用される可能性がある。国内外において、政治家の顔を入れ替えたり、発言の捏造などの世論操作や、災害に関するデマゴーグ、ニュース番組になりすました広告やフェイクポルノ等の事例がある。

悪用事例以外にも、ニュース記事の生成や日本赤十字社による関東大震災の体験記の生成[45]などの生成的人工知能の活用を目指した取り組みに関してもその情報の信頼性と信憑性、歴史的記録の捏造など様々な課題がある[46]

このため国内外でディープフェイク対策のための研究が進められている[47]

音声のディープフェイク[編集]

画像の場合と同じように有名人や公人の音声で物議を醸す発言をしている音声を生成する例があり、音声生成AIに対する倫理的懸念が生じている[48][49][50][51][52][53]。これに対して、一部の企業は安全対策とユーザーの身元確認を通じて潜在的な悪用の軽減に取り組む姿勢を見せている[54]

サイバー犯罪[編集]

ディープフェイクはフィッシング詐欺を含むさまざまな種類のサイバー犯罪に悪用されている[55]。さらに、テキスト生成AIはECサイト上で高評価の偽レビューを量産するために大規模に使用されている[56]。WormGPTやFraudGPTなどサイバー犯罪を目的とした大規模言語モデルが作成された例もある[57]

グーグルでクリック詐欺の対策に従事していたシュマン・ゴーセマジュムダー英語版は、当初メディアを騒がせたディープフェイク動画はすぐに一般的となり、その結果より危険なものになるだろうと予測している[58]

2023年の研究では脱獄や逆心理学などを使った攻撃でChatGPTに掛けられた保護を回避して有害情報を抽出する脆弱性を確認した。同研究ではChatGPTのソーシャルエンジニアリングフィッシング詐欺への悪用の潜在的リスクを指摘しており、一方で、生成的人工知能を活用することでサイバーセキュリティを改善できる可能性を指摘している[59]

ハルシネーション (幻覚)[編集]

人工知能の用語のハルシネーション(hallucination。幻覚)とは、AIの訓練に用いたどの学習データとも整合しない回答をAIが堂々としてしまうという問題である。人間の幻覚喩えて「幻覚」と呼ばれているが、作話(confabulation)という表現のほうを好む研究者もいる。

2023年、アメリカ合衆国ニューヨーク州の弁護士が審理中の民事訴訟の資料作成にChatGPTを利用した結果、存在しない判例の「引用」を6件行っていた[60][61]

2023年11月、複数の俳優国政政党れいわ新選組」を応援している旨のメッセージを載せたまとめサイトが確認され、俳優の所属事務所、れいわ新選組が応援を否定する事態になった[62][63]。サイトの作成者は「該当記事はAIに書かせたものであり、その芸能人が実際にれいわ新選組を応援しているかどうか確認せずに掲載してしまった」と説明している[64][65]

人種的、ジェンダーバイアスの強化[編集]

生成的人工知能が訓練データに含まれる文化的偏見を反映し、増幅する可能性が懸念されている。例えば、医師、エンジニア、教師などが男性であり、秘書や料理人、看護師などが女性とする[66]、「CEOの写真」から白人男性の画像を不釣り合いに多く生成される場合などが挙げられている[67]。入力プロンプトの変更[68]や訓練データの再重み付けなど、バイアスを軽減する手法が研究されている[69]

法規制[編集]

アメリカではOpenAIAlphabetMetaを含む企業が2023年7月にホワイトハウスとの間でAI生成物に電子透かしを入れる自主協定を締結した[70]。 2023年10月、大統領令14110により国防生産法が適用され、すべての米国企業に対し、大規模AIモデルを訓練する際に連邦政府に報告することが義務付けられた[71]

欧州連合人工知能法には生成AIシステムの訓練に使用される著作権保護の対象となるデータを開示すること、およびAI生成物にラベル付けを義務付ける要件が含まれた[72][73]

中国では、政府のサイバースペース管理局が導入した生成AIサービス管理のための暫定措置により、生成AIが規制対象となっている。これには、生成された画像やビデオに透かしを入れるための要件、訓練データとラベルの品質に関する規制、個人データの収集に関する制限、生成AIが「社会主義の中核的価値観を遵守」しなければならないというガイドラインが含まれている[74][75]

著作権[編集]

訓練データの著作権[編集]

生成的人工知能を訓練する際に使用するデータセットに含まれる著作物に関して、データ倫理上の課題と著作権法の解釈が議論されている。機械学習で訓練をされたAIサービスの普及に伴い、訓練に用いるデータセットに著作物が使われる事例に対して、出版社やクリエイターを中心として懸念が広がっており、米国ではニューヨークタイムズマイクロソフトOpenAIへの訴訟、ユニバーサル・ミュージックAnthropicへの訴訟など著作者や著作権管理団体によるAIの開発、提供事業者への訴訟が提起されており[76][77]フランスが生成AIの訓練で報道記事を無断利用したとしてGoogleに2億5000万ユーロ(約410億円)の罰金を課す事例も発生している[78]

著作物を機械学習の訓練目的で利用することについて、国や地域によって著作物の利用についての法規制は異なっており、各国の法理において機械学習での著作物の利用が認められる範囲に関して広範な論争が為されている。欧州ではDSM指令によって学術目的以外ではオプトアウトにより著作物の利用が制限される[79][80]。アメリカでは著作物の利用がフェアユースによって広範に規定されている[80]。日本においては学習段階で行われる著作物の複製に関して著作権法30条の4で複製権の権利制限をしている[81]。また、ベルヌ条約におけるスリーステップテスト等の国際条約との関係も議論されている[82]

生成物の著作権[編集]

AIによって生成された生成物を著作物として認めるかどうかについて、人間の介在の有無や人間の関与の度合いによってどのように線引きをするのか、そもそも著作物として認めるべきなのか議論がなされている。

脚注[編集]

  1. ^ 生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について”. utelecon. 2023年7月1日閲覧。
  2. ^ 生成AI(Generative AI)のビジネスへの影響|Deloitte AI Institute|Deloitte”. デロイト・メンバーファーム. 2023年7月1日閲覧。
  3. ^ Nature読者のChatGPT利用法 | Nature ダイジェスト | Nature Portfolio”. www.natureasia.com. 2023年7月1日閲覧。
  4. ^ 生成AIモデル:ビジネスにおけるリスクおよび潜在的なリターン - KPMGジャパン”. KPMG (2023年5月30日). 2023年7月1日閲覧。
  5. ^ TECHBLITZ編集部「生成AI(ジェネレーティブAI)の成長スタートアップ最新動向を調査【生成AIツールトレンドレポート】」『TECHBLITZ』イシン、2023年10月11日。2024年3月19日閲覧。
  6. ^ a b Anthropic Said to Be Closing In on $300 Million in New A.I. Funding”. en:The New York Times (2023年1月27日). 2023年3月14日閲覧。
  7. ^ Lanxon, Nate; Bass, Dina; Davalos, Jackie (2023年3月10日). “A Cheat Sheet to AI Buzzwords and Their Meanings”. Bloomberg News. https://news.bloomberglaw.com/tech-and-telecom-law/a-cheat-sheet-to-ai-buzzwords-and-their-meanings-quicktake 2023年3月14日閲覧。 
  8. ^ Pasick, Adam (2023年3月27日). “Artificial Intelligence Glossary: Neural Networks and Other Terms Explained” (英語). The New York Times. ISSN 0362-4331. https://www.nytimes.com/article/ai-artificial-intelligence-glossary.html 2023年4月22日閲覧。 
  9. ^ Generative models”. OpenAI (2016年6月16日). 2023年5月20日閲覧。
  10. ^ Metz, Cade. "OpenAI Unveils GPT-4, Months After ChatGPT Stunned Silicon Valley." The New York Times, March 14, 2023, https://www.nytimes.com/2023/03/14/technology/openai-gpt4-chatgpt.html
  11. ^ Thoppilan, Romal; De Freitas, Daniel; Hall, Jamie; Shazeer, Noam; Kulshreshtha, Apoorv; Cheng, Heng-Tze; Jin, Alicia; Bos, Taylor; Baker, Leslie; Du, Yu; Li, YaGuang; Lee, Hongrae; Zheng, Huaixiu Steven; Ghafouri, Amin; Menegali, Marcelo; Huang, Yanping; Krikun, Maxim; Lepikhin, Dmitry; Qin, James; Chen, Dehao; Xu, Yuanzhong; Chen, Zhifeng; Roberts, Adam; Bosma, Maarten; Zhao, Vincent; Zhou, Yanqi; Chang, Chung-Ching; Krivokon, Igor; Rusch, Will; Pickett, Marc; Srinivasan, Pranesh; Man, Laichee; Meier-Hellstern, Kathleen; Ringel Morris, Meredith; Doshi, Tulsee; Delos Santos, Renelito; Duke, Toju; Soraker, Johnny; Zevenbergen, Ben; Prabhakaran, Vinodkumar; Diaz, Mark; Hutchinson, Ben; Olson, Kristen; Molina, Alejandra; Hoffman-John, Erin; Lee, Josh; Aroyo, Lora; Rajakumar, Ravi; Butryna, Alena; Lamm, Matthew; Kuzmina, Viktoriya; Fenton, Joe; Cohen; Aaron; Bernstein, Rachel; Kurzweil, Ray; Aguera-Arcas, Blaise; Cui, Claire; Croak, Marian; Chi, Ed; Le, Quoc (20 January 2022). "LaMDA: Language Models for Dialog Applications". arXiv:2201.08239 [cs.CL]。
  12. ^ Roose, Kevin (2022年10月21日). “A Coming-Out Party for Generative A.I., Silicon Valley's New Craze”. The New York Times. 2023年3月14日閲覧。
  13. ^ Don't fear an AI-induced jobs apocalypse just yet”. The Economist (2023年3月6日). 2023年3月14日閲覧。
  14. ^ Generative AI: Unlocking the future of fashion”. 2023年3月14日閲覧。
  15. ^ The race of the AI labs heats up”. The Economist (2023年1月30日). 2023年3月14日閲覧。
  16. ^ Google Cloud brings generative AI to developers, businesses, and governments” (2023年3月14日). 2023年3月15日閲覧。
  17. ^ Justin Hendrix (2023年5月16日). “Transcript: Senate Judiciary Subcommittee Hearing on Oversight of AI”. techpolicy.press. 2023年5月19日閲覧。
  18. ^ 「チャットGPT」にEUが要求:情報源を開示せよ”. The Wall Street Journal. 2023年4月28日閲覧。
  19. ^ "Artists are alarmed by AI — and they're fighting back". The Washington Post (英語). 2023年2月18日閲覧
  20. ^ ChatGPT and the EU AI Act”. mhc.ie. Mason Hayes & Curran. 2023年11月29日閲覧。
  21. ^ Chee, Foo Yun; Mukherjee, Supantha (2023年6月14日). “EU lawmakers vote for tougher AI rules as draft moves to final stage” (英語). https://www.reuters.com/technology/eu-lawmakers-agree-changes-draft-artificial-intelligence-rules-2023-06-14/ 2023年7月26日閲覧。 
  22. ^ Jones, Rachyl (2023年10月16日). “Marc Andreessen just dropped a 'Techno-Optimist Manifesto' that sees a world of 50 billion people settling other planets”. Fortune. 2023年11月28日時点のオリジナルよりアーカイブ。2023年11月26日閲覧。
  23. ^ finetune-transformer-lm”. GitHub. 2023年5月19日閲覧。
  24. ^ Radford, Alec; Wu, Jeffrey; Child, Rewon; Luan, David; Amodei, Dario; Sutskever, Ilya; others (2019). “Language models are unsupervised multitask learners”. OpenAI blog 1 (8): 9. 
  25. ^ Hopes for 2024 from Anastasis Germanidis, Sara Hooker, Percy Liang, Sasha Luccioni, Pelonomi Moiloa, Kevin Scott” (英語). Hopes for 2024 from Anastasis Germanidis, Sara Hooker, Percy Liang, Sasha Luccioni, Pelonomi Moiloa, Kevin Scott (2023年12月27日). 2023年12月28日閲覧。
  26. ^ https://www.marktechpost.com/2023/03/21/a-history-of-generative-ai-from-gan-to-gpt-4/
  27. ^ https://www.marktechpost.com/2023/03/21/a-history-of-generative-ai-from-gan-to-gpt-4/
  28. ^ Bommasani, R; Hudson, DA; Adeli, E; Altman, R; Arora, S; von Arx, S; Bernstein, MS; Bohg, J; Bosselut, A; Brunskill, E; Brynjolfsson, E (16 August 2021). "On the opportunities and risks of foundation models". arXiv:2108.07258 [cs.LG]。
  29. ^ Chen, Ming; Tworek, Jakub; Jun, Hongyu; Yuan, Qinyuan; Pinto, Hanyu Philippe De Oliveira; Kaplan, Jerry; Edwards, Haley; Burda, Yannick; Joseph, Nicholas; Brockman, Greg; Ray, Alvin (6 July 2021). "Evaluating Large Language Models Trained on Code". arXiv:2107.03374 [cs.LG]。
  30. ^ Ramesh, Aditya; Pavlov, Mikhail; Goh, Gabriel; Gray, Scott; Voss, Chelsea; Radford, Alec; Chen, Mark; Sutskever, Ilya (2021). "Zero-shot text-to-image generation". International Conference on Machine Learning. PMLR. pp. 8821–8831.
  31. ^ Heaven, Will Douglas (2023年2月15日). “AI is dreaming up drugs that no one has ever seen. Now we've got to see if they work”. MIT Technology Review. Massachusetts Institute of Technology. 2023年3月15日閲覧。
  32. ^ Agostinelli, Andrea; Denk, Timo I.; Borsos, Zalán; Engel, Jesse; Verzetti, Mauro; Caillon, Antoine; Huang, Qingqing; Jansen, Aren; Roberts, Adam; Tagliasacchi, Marco; Sharifi, Matt; Zeghidour, Neil; Frank, Christian (26 January 2023). "MusicLM: Generating Music From Text". arXiv:2301.11325 [cs.SD]。
  33. ^ Metz, Cade (2023年4月4日). “Instant Videos Could Represent the Next Leap in A.I. Technology” (英語). The New York Times. 2023年4月30日閲覧。
  34. ^ Queenie Wong (2022年9月29日). “Facebook Parent Meta's AI Tool Can Create Artsy Videos From Text”. cnet.com. 2023年4月4日閲覧。
  35. ^ Sherry Yang, Yilun Du (2023年4月12日). “UniPi: Learning universal policies via text-guided video generation”. Google Research, Brain Team. Google AI Blog. 2023年5月24日閲覧。
  36. ^ 広島AIプロセスについて”. 総務省. 2024年3月7日閲覧。
  37. ^ Secretary-General's remarks to the Security Council on Artificial Intelligence”. un.org (2023年7月18日). 2023年7月27日閲覧。
  38. ^ “The Writers Strike Is Taking a Stand on AI” (英語). Time. (4 May 2023). https://time.com/6277158/writers-strike-ai-wga-screenwriting/ 2023年6月11日閲覧。. 
  39. ^ Tarnoff, Ben (2023年8月4日). “Lessons from Eliza”. The Guardian Weekly: pp. 34–39 
  40. ^ Zhou, Viola (2023年4月11日). “AI is already taking video game illustrators' jobs in China” (英語). Rest of World. 2023年8月17日閲覧。
  41. ^ Carter, Justin (2023年4月11日). “China's game art industry reportedly decimated by growing AI use” (英語). Game Developer. 2023年8月17日閲覧。
  42. ^ Collier, Kevin (2023年7月14日). “Actors vs. AI: Strike brings focus to emerging use of advanced tech”. NBC News. 2024年3月6日閲覧。
  43. ^ Wiggers, Kyle (2023年8月22日). “ElevenLabs' voice-generating tools launch out of beta” (英語). TechCrunch. 2023年9月25日閲覧。
  44. ^ Shrivastava, Rashi. “'Keep Your Paws Off My Voice': Voice Actors Worry Generative AI Will Steal Their Livelihoods” (英語). Forbes. 2023年11月28日閲覧。
  45. ^ 生成AIで関東大震災「新証言」を作成…「捏造」批判受け日赤の企画展中止 読売新聞 2023年9月3日
  46. ^ 生成AIに高校スポーツ記事を書かせた大手新聞社、誤りや品質の苦情続き一時取り下げ。所属記者も「掲載すべきでなかった」と発言”. 2023年9月27日時点のオリジナルよりアーカイブ。2024年1月8日閲覧。
  47. ^ 越前巧、馬場口登、笹原和俊「インフォデミック時代におけるフェイクメディア克服の最前線」『人工知能』人工知能学界 2023年3月号 pp.189 - 196
  48. ^ People Are Still Terrible: AI Voice-Cloning Tool Misused for Deepfake Celeb Clips” (英語). PCMag Middle East (2023年1月31日). 2023年7月25日閲覧。
  49. ^ The generative A.I. software race has begun” (英語). Fortune. 2023年2月3日閲覧。
  50. ^ Milmo, Dan; Hern, Alex (2023年5月20日). “Elections in UK and US at risk from AI-driven disinformation, say experts” (英語). The Guardian. ISSN 0261-3077. https://www.theguardian.com/technology/2023/may/20/elections-in-uk-and-us-at-risk-from-ai-driven-disinformation-say-experts 2023年7月25日閲覧。 
  51. ^ Seeing is believing? Global scramble to tackle deepfakes” (英語). news.yahoo.com. 2023年2月3日閲覧。
  52. ^ Vincent, James (2023年1月31日). “4chan users embrace AI voice clone tool to generate celebrity hatespeech” (英語). The Verge. 2023年2月3日閲覧。
  53. ^ Thompson, Stuart A. (2023年3月12日). “Making Deepfakes Gets Cheaper and Easier Thanks to A.I.” (英語). The New York Times. ISSN 0362-4331. https://www.nytimes.com/2023/03/12/technology/deepfakes-cheapfakes-videos-ai.html 2023年7月25日閲覧。 
  54. ^ A new AI voice tool is already being abused to make deepfake celebrity audio clips” (英語). Engadget (2023年1月31日). 2023年2月3日閲覧。
  55. ^ Sjouwerman, Stu (2022年12月26日). “Deepfakes: Get ready for phishing 2.0”. Fast Company. https://www.fastcompany.com/90829233/deepfakes-get-ready-for-phishing-2-0 2023年7月31日閲覧。 
  56. ^ Collinson, Patrick (2023年7月15日). “Fake reviews: can we trust what we read online as use of AI explodes?” (英語). The Guardian. ISSN 0261-3077. https://www.theguardian.com/money/2023/jul/15/fake-reviews-ai-artificial-intelligence-hotels-restaurants-products 2023年12月6日閲覧。 
  57. ^ After WormGPT, FraudGPT Emerges to Help Scammers Steal Your Data” (英語). PCMAG. 2023年7月31日閲覧。
  58. ^ Sonnemaker, Tyler. “As social media platforms brace for the incoming wave of deepfakes, Google's former 'fraud czar' predicts the biggest danger is that deepfakes will eventually become boring” (英語). Business Insider. 2023年7月31日閲覧。
  59. ^ Gupta, Maanak; Akiri, Charankumar; Aryal, Kshitiz; Parker, Eli; Praharaj, Lopamudra (2023). “From ChatGPT to ThreatGPT: Impact of Generative AI in Cybersecurity and Privacy”. IEEE Access 11: 80218–80245. arXiv:2307.00691. Bibcode2023IEEEA..1180218G. doi:10.1109/ACCESS.2023.3300381. 
  60. ^ ChatGPTで資料作成、実在しない判例引用 米国の弁護士”. 日本経済新聞 (2023年5月31日). 2023年8月15日閲覧。
  61. ^ “ChatGPT: US lawyer admits using AI for case research” (英語). BBC News. (2023年5月27日). https://www.bbc.com/news/world-us-canada-65735769 2023年8月15日閲覧。 
  62. ^ れいわ、虚偽サイト注意呼びかけ 芸能人応援「事実なし」”. 共同通信 (2023年11月10日). 2023年11月12日閲覧。
  63. ^ れいわ、偽サイトに注意呼びかけ 俳優3人が「応援メッセージ」?”. 朝日新聞 (2023年11月10日). 2023年11月12日閲覧。
  64. ^ 日本テレビ (2023年11月10日). “○○さんらの“偽コメント”ブログ 作成者が日テレの取材に回答(一部伏せ字)”. 日テレNEWS NNN. 2023年11月12日閲覧。
  65. ^ サイト運営者「AIに書かせた」 れいわ新選組の虚偽応援”. 共同通信 (2023年11月10日). 2023年11月12日閲覧。
  66. ^ Rachel Gordon (2023年3月3日). “Large language models are biased. Can logic help save them?”. MIT CSAIL. 2024年1月26日閲覧。
  67. ^ OpenAI (2022年7月18日). “Reducing bias and improving safety in DALL·E 2”. OpenAI. 2024年1月26日閲覧。
  68. ^ Jake Traylor (2022年7月27日). “No quick fix: How OpenAI's DALL·E 2 illustrated the challenges of bias in AI”. NBC News. 2024年1月26日閲覧。
  69. ^ DALL·E 2 pre-training mitigations”. OpenAI (2022年6月28日). 2024年1月26日閲覧。
  70. ^ Bartz, Diane; Hu, Krystal (2023年7月21日). “OpenAI, Google, others pledge to watermark AI content for safety, White House says”. Reuters. https://www.reuters.com/technology/openai-google-others-pledge-watermark-ai-content-safety-white-house-2023-07-21/ 
  71. ^ FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence”. The White House (2023年10月30日). 2024年1月30日閲覧。
  72. ^ ChatGPT and the EU AI Act”. mhc.ie. Mason Hayes & Curran. 2023年11月29日閲覧。
  73. ^ Chee, Foo Yun; Mukherjee, Supantha (2023年6月14日). “EU lawmakers vote for tougher AI rules as draft moves to final stage” (英語). https://www.reuters.com/technology/eu-lawmakers-agree-changes-draft-artificial-intelligence-rules-2023-06-14/ 2023年7月26日閲覧。 
  74. ^ Ye, Josh (2023年7月13日). “China says generative AI rules to apply only to products for the public”. Reuters. 2023年7月13日閲覧。
  75. ^ 生成式人工智能服务管理暂行办法” (2023年7月13日). Template:Cite webの呼び出しエラー:引数 accessdate は必須です。
  76. ^ NYT v. Microsoft, OpenAI (1:23-cv-11195, 12/27/23)
  77. ^ https://wired.jp/article/tiktok-universal-music-group-umg-remove-songs/
  78. ^ https://www.nikkei.com/article/DGXZQOGR204920Q4A320C2000000
  79. ^ "Directive (EU) 2019/790 of the European Parliament and of the Council of 17 April 2019 on copyright and related rights in the Digital Single Market and amending Directives 96/9/EC and 2001/29/EC (Text with EEA relevance.)". Act of 17 April 2019. The European Parliament & Council of the European Union. 条文の邦訳は公益社団法人著作権情報センターHPを参照。https://www.cric.or.jp/db/world/EU/EU_02a.html
  80. ^ a b 生成AIに関する各国の対応について”. 文化庁. 2024年1月10日閲覧。
  81. ^ 著作権法 | e-Gov法令検索”. elaws.e-gov.go.jp. 2024年1月14日閲覧。
  82. ^ https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/hoseido/r05_07/pdf/94011401_10.pdf

関連項目[編集]