ChatGPT

半保護されたページ
出典: フリー百科事典『ウィキペディア(Wikipedia)』

ChatGPT
開発元 OpenAI
初版 2022年11月30日 (16か月前) (2022-11-30)
最新版
2023年5月12日 (11か月前) (2023-05-12)
使用エンジン GPT-3.5
GPT-4
種別 人工知能
ライセンス プロプライエタリソフトウェア
公式サイト chat.openai.com ウィキデータを編集
テンプレートを表示

ChatGPT(チャットジーピーティー、英語: Chat Generative Pre-trained Transformer)[1]は、OpenAI2022年11月に公開した人工知能チャットボットであり、生成AIの一種。

GPTの原語のGenerative Pre-trained Transformerとは、「生成可能な事前学習済み変換器」という意味である[2]。OpenAIのGPT-3ファミリーの大規模な言語モデルに基づいて構築されており、教師あり学習強化学習の両方の手法を使って転移学習され、機械学習のサブセットである深層学習を使って開発されている[3]

概要

2022年11月30日プロトタイプとして公開され、幅広い分野の質問に詳細な回答を生成できることから注目を集めた。しかし、人間が自然と感じる回答の生成を特徴としていることから、一見自然に見えるが事実とは異なる回答を生成することもあり[4][5]、大きな欠点とされた[6]。例としては、Wikipedia:削除された悪ふざけとナンセンスの中にあるラムセス12世という記事がある。このページのノートには、「ラムセス12世は実在せず、ChatGPTは存在しない架空の歴史上人物についての文章を出典付きで出した」とあり、これは大きな問題である。ChatGPTのリリース後、OpenAIの評価額は290億米ドルとなり[7]2021年時の140億ドルと比べて2倍以上に増加した[8]。OpenAIの筆頭株主であるMicrosoftが展開する検索エンジンBingウェブブラウザEdge等の幅広いサービスの生成AIの技術にも、ChatGPTが活用されている[9]

スイスの金融グループUBSの分析によると、ChatGPTがアクティブユーザー数1億人に到達するのにかかった時間は、TikTokInstagramがそれぞれ9カ月と2年半であるのに対して、2か月と史上最速である[10]

OpenAIによれば、オプトアウトを申請しない限り、ユーザーが入力したChatGPTとの会話内容はOpenAIによってその内容を利用されることがある[11]。このため、一般的にChatGPTの利用に際して個人情報と機密情報の入力に注意する必要があり[12][13]AppleJPモルガンサムスン電子など一部の企業はChatGPTへのアクセスを禁止している[14][15][16]

ChatGPTによる個人情報の収集に関しては、EU一般データ保護規則に違反している疑惑も浮上しており、2023年3月31日イタリア政府はChatGPTの訓練のために個人情報を大量に収集することを正当化する法的根拠がないと指摘して、ChatGPTへのアクセスを一時禁止した[17][18]米国では、個人情報収集や著作権の問題により、ChatGPTの運営元企業OpenAIに対して複数の訴訟が提起されている[19][20][21]

また、ChatGPTは原則として犯罪に利用される回答を生成しないと謳っているが、回避ワード(例:Uncensored等)を入力すると、犯罪に利用できる回答が生成されてしまうという欠点が指摘されている[22]

トレーニング

ChatGPTは、教師あり学習と強化学習を使用して、GPT-3.5上で微調整された[23]。どちらのアプローチも、人間のトレーナーを使用してモデルのパフォーマンスを改善した。教師あり学習の場合、モデルには、トレーナーがユーザーとAIアシスタントの両方を演じる会話が提供された。強化ステップでは、まず人間のトレーナーが、モデルが以前の会話で作成した応答をランク付けした。これらのランキングは、 Proximal Policy Optimization(PPO)を数回繰り返してモデルをさらに微調整した「報酬モデル」を作成するために使用された[24][25]。近接ポリシー最適化アルゴリズムは、信頼領域ポリシー最適化アルゴリズムに費用対効果の高い利点をもたらした。より高速なパフォーマンスで、計算コストの高い操作の多くを無効にする[26]。モデルは、Azureを使用したスーパーコンピューティングインフラストラクチャでMicrosoftと共同でトレーニングされた[27]

さらに、OpenAIは、ChatGPTのさらなるトレーニングと微調整に使用できるChatGPTユーザーからのデータを引き続き収集する。ユーザーは、ChatGPTから受け取った応答に対して賛成票または反対票を投じることができる。賛成票または反対票を投じると、テキストフィールドに追加のフィードバックを入力することもできる[28][29][30]

機能

チャットボットの主要機能は人間同士の対話を模倣することであるが、ChatGPTについてはそれを越える汎用的かつ即興的な機能が備わっているとされ、話題となった。ChatGPTは、マルバツゲームの相手をしたり、Linuxシステムをエミュレートすることができたり[31]、プログラミングやデバッグが行うことができる。また、音楽、小説、脚本、詩、歌詞や作文などの創作活動もできる[32]。その上、特定のテストに対して、人間と同水準かそれ以上の回答ができることがあるなど[33]、幅広い機能を備えている。

前作のInstructGPTと比べ、ChatGPTは攻撃的・欺瞞的な回答の生成をできるだけ避ける仕様となっている[34]。学習データにはmanページPython電子掲示板など、プログラミング言語インターネット現象についても含まれている[31]

ほとんどのチャットボットとは対照的に、ChatGPTは会話内での利用者による過去の入力を記憶している。これにより、ChatGPTが個人に最適化されたセラピストとして使える可能性があることが指摘されている[35]。攻撃的な回答が生成されるのを防ぐため、ユーザーの入力とChatGPTの生成した回答はOpenAIのコンテンツモデレーションAPI[36][37]によってフィルターされており、人種差別的・性差別的な入力への回答はAPIによって拒否される仕様になっている[38][35]

機能は豊富なものの、複数の欠点も有る。OpenAIはChatGPTが「時によっては、もっともらしく見えるが誤っている回答を作成する」ことを認めている[38]。ChatGPTの報酬モデルは人間による監視を中心としているため、最適化されすぎてパフォーマンスに影響を及ばしてしまう(グッドハートの法則)[39]。それに加え、ChatGPTは2021年10月以降に発生した出来事については知識が備えられておらず、一部の著名人については知識が全く無いことも有る[40]

BBCによると、2022年12月現在でChatGPTは政治的な意見を表明しない仕様である[41]。ChatGPTの学習中、人間の「教師」は回答の正当性などに関係なく長い回答を好んでいた[38]。また、訓練データはアルゴリズム的バイアスがあり、時によって人種差別的や性差別的な回答を生成させることにもつながったと言われている。例として、有色人種や女性の科学者は白人男性の科学者よりも優れている、といった内容のラップを生成したことがあった[42][43]

サービス

ChatGPTは2022年11月30日に公開された。当初は無料で公開されたが、後に有料化する計画があるという[44]。開発元のOpenAIは同年12月4日までにユーザー数が100万を突破したと見積もった[45]。12月15日、CNBCサーバーが「未だ時々ダウンする」と報告した[46]。ChatGPTは主に英語での使用を想定しているが、他の言語でもある程度は機能することができる[32]。2022年現在、最近話題となったAIとは対照的に、ChatGPTに関する査読済みの技術論文は無い[47]

OpenAIの客員研究員であるスコット・アーロンソンは、ChatGPTの悪用を防ぐため、同社がChatGPTの文書生成システムに何らかの形で透かしを入れる機能を開発していると明かした[48][49]。また、ニューヨーク・タイムズは、ChatGPTの後継として、GPT-4が2023年内に公開されることが「噂されている」と報じた[35]

2023年2月1日、有料版として「ChatGPT Plus」が発表された[50]。アクセス集中時にも優先的にアクセスできるようになっており、反応の高速化や新機能の使用ができる[51]アメリカから順次サービスが提供される[52]

2023年3月15日、「GPT-4」が有料版として公開された[53]

反響

ニューヨーク・タイムズはChatGPTを「今まで公衆に公開されてきたチャットボットの中で一番良いものである」と評し[54]ガーディアンはChatGPTが「驚くほど詳細」でまるで「人間のような」回答を生成することができると記した[55]ダン・ギルモアはChatGPTを生徒の課題に使い、出力結果が優秀な生徒による回答と同レベルであることを発見した上で、「学界は大きな問題に直面している」と意見した[56]。また、アメリカ合衆国に拠点を置く雑誌『Slate』は、ChatGPTが、ユーザーがナチス・ドイツに関する質問を入力した際に生成する回答を賛美した。同雑誌は例として、アドルフ・ヒトラーアウトバーンを建設したというナチス・ドイツを賛美する内容の入力に対し、ChatGPTが第二次世界大戦時のナチス・ドイツによる強制労働について解説する回答を生成したことを挙げた[57]

Vox Mediaのケルシー・パイパーは、ChatGPTがAIの進化ぶりを公衆に可視化したことで公衆が唖然としたことを指摘し、欠点を差し引いてもChatGPTは高い頭脳を有していると評価した。Yコンビネータポール・グレアムは「ChatGPTに圧倒されている人たちが、新しい物全部にキャーキャー言う人だけではないのが印象的だ。確実に何か大きいことが起こっている[58]」とツイートした。開発元であるOpenAIの設立者の一人でもあるイーロン・マスクは、「ChatGPTは恐ろしいほど良い。危険なほどのAIも遠くない」と書いた[59]。また、彼は「OpenAIはオープンソースかつ非営利団体として設立されたが、今ではそれが変わっている」と主張し、同社によるTwitterのデータベースへのアクセスを一時遮断した[60][61]。マスクは汎用人工知能による人類滅亡のリスクに対応するため、2015年にOpenAIを共同設立していたが、2018年にCEOの座を降りていた[61]

Googleのサンダー・ピチャイCEO[62]

2022年12月、ニューヨーク・タイムズは、ChatGPTが検索エンジン事業にもたらす脅威を受け、自社の検索エンジンの先行きが曇ってきたことから、Googleが「コードレッド(緊急事態)」を発動し、サンダー・ピチャイCEOが社内にChatGPTの脅威に対応するよう命じたと報じた[62][63]。 2023年「日経サイエンス」でもChatGPTが表紙を飾り内容が大きく取り上げられた。

2023年4月10日、ChatGPTを公開した米OpenAI社のサム・アルトマンCEOが訪日し、首相官邸内閣総理大臣岸田文雄と面会した[64]

批判

2023年6月現在、ChatGPTが利用できる国または地域を示した地図

文章生成に報道機関の記事を無報酬で使用しているとして、批判を受けている。『ウォール・ストリート・ジャーナル』紙の発行元であるダウ・ジョーンズのジェイソン・コンティは「人工知能の訓練にウォール・ストリート・ジャーナルの記事を使う場合は、ダウ・ジョーンズから権利をきちんとライセンスすべきである」と述べ、「OpenAIはダウ・ジョーンズとそのような契約を結んでいない」と批判した。コンティは「ジャーナリストの記事の悪用を真剣に受け止めており、この状況を精査している」と付け加え、懸念を表明している[65]

2022年12月、経済学者のポール・クルーグマンはChatGPTが知識労働者の需要に影響すると意見し[66]ザ・ヴァージは、ChatGPTの成功は、AIが主流になりつつあることを表していると意見した[67]。また、ChatGPTがよく「幻覚」を見ており、事実と異なる回答を生成することが多い、という指摘が上がった[68]。マッシャブルのマイク・パールは、ChatGPTに複数の質問をし、回答の正確性をテストした。一例では、彼が「中央アメリカで、メキシコの次に大きな」は何か質問した際、グアテマラと回答した(正しい答えはニカラグアであった)[69]。また、CNBCがある曲の歌詞を生成するよう求めた時、ChatGPTは実際の歌詞ではなく新しく自身で生成した歌詞を回答した[46]

経済学者マサチューセッツ工科大学教授のダロン・アシモグルとサイモン・ジョンソンは、ChatGPTのような人工知能技術は従来の技術革新とは異なる特徴を持っており、経済成長を促進せず経済全体に悪影響を与えると指摘した。つまり、AIは労働需要の減退と賃金の減少を招き、需要を減退させ経済全体を縮小させる。アシモグルらはAIを推進する大企業の姿勢に懸念を示し、こう述べた[70]

フォードは大衆が自動車を買う経済的余裕がなければ、自動車を量産しても何の意味もないことを理解していた。今日の巨大企業は対照的に、人類共通の未来を荒廃させるような新技術を推進しているのである[70]

2022年12月、コミュニティサイトStack Overflowは、ChatGPTの回答には誤答が少なくないことを理由として、同サイトでの質問にChatGPTを使って回答することを禁止した[71]

経済学者のタイラー・コーエンは、ChatGPTが民主主義にもたらす効果について懸念を示した[72]。英ガーディアン紙は、ChatGPTの公開を受けて、インターネット上のいかなるコンテンツが「本当に信用できるか」疑問を呈し、政府による規制を呼び掛けた[73]

ニューヨーク・タイムズ』の意見記事で、ネイサン・E・サンダースとブルース・シュナイアーは、ChatGPTが「民主主義を乗っ取る」と批判し[74]ノーム・チョムスキーとイアン・ロバーツ、ジェフリー・ワタムルもChatGPTを批判的に言及し、次のように結論付けた。「このシステムの非道徳性、偽科学、言語学的な無能力を考慮すると、その人気に対して笑うか泣くしかない」[75]

オーストラリアの国会議員であるジュリアン・ヒルは、AIの成長が「大量破壊」を引き起こす可能性があると国会の場で陳述した。一部をプログラムで作成した演説の中で、不正行為や雇用の喪失差別、偽情報、制御不能な軍事的応用をもたらす可能性があると警告した[76]

ニック・ケイヴはChatGPTで作成された本人を模倣したスタイルの歌詞を送られ、曲を書くという行為について、「血と根性のビジネスだ... 新しく新鮮なアイデアを始めるために僕の何かが必要なんだ。それは僕の人間性を必要とするものなんだ」と私見を述べた。彼はさらに、「世界中のすべての愛と敬意をもってしたとしても、この曲はくそったれで、人間であることをグロテスクに嘲笑っている、そしてまあ、僕はあまり好きではないね」と不快感を表明した[77][78][79]

Bleeping Computer(ブリーピングコンピューター)のアクス・シャルマ(Ax Sharma)は、ChatGPTがフィッシング詐欺などを目的とするメールを書くことができると指摘し[80]、OpenAIのサム・アルトマンCEOは、ソフトウェアの開発が進むことによって、「サイバーセキュリティにおける大きなリスク」などをもたらす可能性があることを記した。また、彼は今後10年で本物の強いAIが開発されることになると予想し、それのリスクに真剣に向き合わなければいけないとした[45]

SF作家のテッド・チャンは、『The New Yorker』誌の記事で、ChatGPTやその他のLLM非可逆圧縮形式のJPEG画像に例えた[81]

ChatGPTをWeb上のあらゆるテキストを不鮮明なJPEGにしたものと考えてみよう。JPEGが高解像度の画像の情報を保持するのと同じように、Web上の情報の多くを保持するが、正確なビット列を探しても見つからず、得られるのは近似値だけになる。しかし、ChatGPTが得意とする文法的な文章で表現しているため、大抵は許容範囲に収まる。〔…〕また、そのような考え方はChatGPTのような大規模な言語モデルが陥りやすい「ハルシネーション(幻覚)」、つまり事実に基づく質問に対してAIが作り出す無意味な回答を理解する方法でもある。このような幻覚は圧縮された人工物であるが、それを判別するためには、ウェブや私たち自身の世界の知識であるところのオリジナルと比較する必要がある。もし圧縮アルゴリズムが、オリジナルの99パーセントが破棄された後に、テキストを再構築するように設計されているなら、生成される相当部分は完全に捏造されたものであると予想されるからである。

ジャーナリストナオミ・クラインはChatGPTをはじめとする生成AI技術と関連企業を厳しく批判しており、「人類史上最大の盗み」「囲い込みと横領を行う機械」「吸血鬼的なチャットボット」であるとしており、「個人的な生および集合的な知的・芸術的遺産の双方を食い物にし、私有化する」としている。つまり、AI企業はインターネット上に公開された人類の知識全体を、製品の中に囲い込んで専売しており、人々の生涯をかけた労働が同意や許可を得ずに、訓練データに使われているというのである。クラインは以下のように述べた[82]

こんなことが合法であるはずがない。AIモデルを訓練するのに使われたことが判明している著作権保護の素材(この『ガーディアン』紙も含まれる)に関しては何件もの訴訟が申請されており、明白に違法な行為が行われたという主張がそこでなされるだろう。例えば、営利企業が生身の芸術家たちの絵画や写真をStable DiffusionやDALL-E 2のようなプログラムに注ぎ込み、それを使ってまさにその芸術家たちの作品のドッペルゲンガー版を作成できるようにするなどということが、いったいどうして許されるのだろうか?その利益が芸術家たち自身にだけは還元されないというのに?[82]

ChatGPTはコンテンツポリシーに抵触する可能性のある入力への回答は拒否する仕様になっているが、プロンプト・エンジニアリングなどを使って回避する方法が2022年12月に見つかっている[83]。これによって、ChatGPTに攻撃的や不適切な回答を生成させることが可能となっている[84]

2023年3月28日、イーロン・マスクスティーブ・ウォズニアックヨシュア・ベンジオスチュアート・ラッセルゲイリー・マーカスなどの著名人や専門家が署名したNPO「Future of Life Institute」の公開書簡が発表され、「人間に匹敵する知能を持つAIシステムは、社会と人類への甚大なリスクになり得る」と指摘。最新の大規模言語モデルであるGPT-4より強力なAIの訓練を少なくとも6ヶ月停止するように要請した[17][85][86]

学術界の反応

学術界では人間の生産性を上げることができるという声があり、大学によるとChatGPTのプロンプトエンジニア授業はすでに存在しているが[87]、ChatGPTは論文の冒頭や一部の節を書くことができ、倫理的な疑問が上がっている[88]。なお、複数の論文が既にChatGPTを共同著者として挙げていることが知られている[89]

アトランティック誌はChatGPTの学界、特に卒業論文などへの影響はまだ把握できる段階ではないと指摘したが[90]カリフォルニア州のある高校教師はChatGPTが「高校での英語教育の終焉」を招いていると主張した[91]ネイチャーのChris Stokel-Walkerは、教師生徒が課題をChatGPT任せにしていることを問題視するべきだと指摘した[92]NPRのEmma Bowmanは、学生がAIを使って不正を試みても、AIは偏見を含む、権威のある人のような口調とともに意味のない回答を生成する場合があり、AIがどれだけ素晴らしく見える回答を生成しても、生成内容と実際の事実は異なることがあると述べた[93]

ファーマン大学英語版教授のDarren Hickは、ある学生によって提出された論文がChatGPTの「型」に気が付いたことを話した。彼がその論文をGPT探知サイトにかけてみると、AIが生成した文章である可能性は99.9%であるとの結果が出たが、確証は得られなかった。問題の論文を提出した学生に質問したところ、GPTを使っていたことを白状したため、同学生は落第処分を受けた[94]。Hickは、AI生成の論文をコピペしたことが強く疑われる場合には、提出した生徒に「アドホック」として個別に口頭での試験行うことを提案した[95]。あるプリンストン大学生は、入力された文章のどれくらいがAI生成かを判断できるプログラムを作成し、"GPTZero"と名付け[96]盗用を防ぐツールとして貸し出している[97][98]

2022年12月、ニューヨーク市教育局がChatGPTへのアクセスをブロックしたことが報じられた[99]。翌年1月3日ごろ、同局がChatGPTの利用を制限することを正式に明らかにした[100][101][102]

2023年2月、香港大学は大学内の全ての授業、課題、評価においてChatGPTやその他のAIツールの使用を禁止することを通達した。授業担当者の書面による事前承諾がない限り、剽窃として扱われるようになった[103][104]

ChatGPTはミネソタ大学の卒業生用のテストでC+、またウォートン・スクールの同様のテストでBからB-の評価を得て、それぞれ合格水準に達した[105]

東京大学

2023年4月3日東京大学は理事・副学長の太田邦史の署名付き文章で、全学生・教員向けにChatGPT、BingAIやBard等の生成AIの利用に関する注意喚起を行った。この文章では生成AIを『平和的かつ上手に制御して利用すれば』有益であるとする一方で技術的な課題があるとして、今後の社会への悪影響に対する懸念を表明した。また、生成AIの文章には嘘が含まれている可能性が高く、ChatGPTを使いこなすには、相当の専門的な知識が必要であり、回答を批判的に確認し、適宜修正することが必要であると指摘している[13]

同文章では、機密情報や個人情報の扱いについても注意喚起を行っており、安易にChatGPTにそれらの情報を送信することは危険であることを指摘し、業務で知り得た機密情報、未公開の発明内容、研究費などの申請内容、入学試験問題の原稿、個人情報などは質問に含めてはならないとしている[13]

東京大学の方針として、学位論文やレポートについては、生成系AIのみを使用して作成することを禁止する一方で、実際には利用を検知することは困難であることから、論文やレポートなどの書面審査だけでなく、対面での口頭審査・筆記試験などを組み合わせて、本人が作成したのか検証する必要が出てくるとした[13]

2023年に5月18日、東京大学でChatGPTを裁判官役とした模擬裁判のイベントが開催された[106][107]。弁護士からは妥当な判決で裁判の補助ツールとして有用であるという評価を受けたが、後から入力された情報が重視される癖のような反応も確認された[107]。この癖に合わせて通常の裁判とは異なる進行で行われた[107]

問題

スパム・誤情報への悪用

RedditではChatGPTを悪用したスパムが大量に発生しており、「大災害」と評されるほどに対応に苦慮している。ChatGPTのリリース後、大麻やポルノ、ギャンブル、ゲームの宣伝を目的にしていると思われるスパムが急増し、モデレーターは大量のbotアカウントの凍結に追われた。Redditでは従来も宣伝目的のスパムやアストロターフィングが問題だったが、ChatGPTはこの問題を大きく悪化させている。従来のスパム行為はコピー・アンド・ペーストに依存して単純だったが、ChatGPTは新しい文面を簡単に生成できることから、より対処が困難になった[108]

2023年5月、ChatGPTを使って鉄道事故のニュースを捏造してインターネット上に拡散した男が、甘粛省の警察により逮捕された。男は「クリック数を増やすためだった」と語った。中国ではディープフェイクを規制する法律が制定されており、逮捕はこの法律に基づいたものだった[109][110][111]

機密情報の流出

ChatGPTはオプトアウトを申請しない限り、ユーザーの入力内容がOpenAIによって利用されることが規約で明記されており、OpenAIは機密情報を入力しないようにユーザーに警告している。サムスン電子では半導体データベースや機器のソースコード、会議の議事録などを社員が誤って入力するなどして、ChatGPTに関連する3件の流出事故が発生したことを報告し、全面的にChatGPTを含む人工知能ツールの使用を禁止した。『フォーブス』誌によれば、プロンプトとして送信したデータが、OpenAI等の運営企業のサーバーに保存され、容易にアクセスや削除ができない状態になることを懸念したとされる[112][14]Amazonでも、社内の内部データがChatGPTが生成する回答に似ている事例が見られたことから、社員が誤ってプロンプトに社外秘の資料等を入力するなどして、訓練データに使用された可能性を懸念し、ソースコード等の機密情報を入力しないように注意喚起を行っている[113]

Appleも、社内の機密データを外部に流出させる可能性があるという懸念から、ChatGPTやGitHub Copilotなどの人工知能ツールの使用を一部禁止している[16]

イスラエル情報セキュリティ企業「Team8」の報告書では、ChatGPTのような生成AIツールを利用する企業は、顧客情報や企業秘密を流出させるリスクがあると指摘している。『ブルームバーグ』によれば、このレポートは多くの米企業の最高情報セキュリティ責任者が寄稿者として記載されており、米国家安全保障局(NSA)元局長のマイケル・ロジャーズにも内容が支持されている[114]

データ倫理・著作権

ChatGPTの訓練に使用された著作物の利用を巡り、データ倫理や著作権上の問題が指摘されている。欧州連合で検討中の生成AI規制法案では、システム構築時に使用する著作物について情報の表示を義務づけられる見込みである。生成AIの普及に伴い、訓練データに著作物が使われることへの懸念が出版社やクリエイターを中心に広がっている[115]

ChatGPTをはじめとする生成AIのリスクに対して、欧州を中心に規制の動きが広がっており、当初は著作物の利用についても直接規制する予定だったが、透明性を確保する方向に緩和された。背景にはGoogleMetaなどの巨大IT企業が規制を回避するためのロビー活動を活発化させていることがあり、推計では1億ドル(約137億円)に及ぶ資金を費やしている[116]

ChatGPTの登場に関連して、日本においては2018年に成立した改正著作権法が問題視されている。この30条4項では人工知能の訓練データに文章や画像を利用する場合に、営利・非営利を問わず著作物を利用できることを定めており、先進国で最も緩い法規制の枠組みになっている。「著作権者の利益を不当に害する場合」は利用できないとしているが、それが具体的にどのようなケースに該当するかは不明瞭である。法改正に当たっては一部の弁護士や大学教授らで構成されたワーキングチームが主導したが、そのリスクは十分に十分に説明されなかった。『読売新聞』の取材によれば、権利者団体から権利侵害を前提としたビジネスモデルへの懸念が示されたが、ワーキングチームはリスクは「ゼロか軽微」と説明した[117][118]

この著作権法の規定に多くの漫画家イラストレーター音楽家俳優芸能人新聞社出版社が懸念を示しており、俳優や音楽家らで結成された日本芸能従事者協会はアンケートを実施し、94.1%がAIによる権利侵害に懸念を示し、「創作者の尊厳が軽んじられないような法制度」を求める意見などが表明された。日本音楽著作権協会も、「営利目的で行われる情報分析サービスまで権利制限の対象とすることは不当」であると主張した。主要な出版社で作る日本書籍出版協会、学術論文の著作権を管理する学術著作権協会も改正当時は生成AIを前提とした説明が行われなかったと回答している。日本新聞協会も、生成AIによる記事や写真の無断利用や誤情報について懸念する見解を発表した[117][118][119]

2023年6月には、カリフォルニア州で、自身の本を同意や補償なしに、無断で訓練データに使用したとして、複数の作家が運営元のOpenAIを著作権侵害で訴える事件も発生している[19]

ChatGPTが世界に与える最も大きな影響のひとつは、人工知能の倫理観とも言われている[120]

個人情報保護

2023年6月2日、日本政府の個人情報保護委員会は、ChatGPTの運営会社OpenAIに対する行政指導を行った。同委員会は個人情報保護法に基づき、人種や信条、病歴や犯罪歴などの重要な個人情報を取集しないように要求し、やむを得ずに取得した場合は削除や匿名化の措置を求め、本人の同意なく個人情報を機械学習に使用した場合に、個人情報保護法に違反する可能性があることも警告した。また、利用規約についても日本語での説明がないことを問題視した。生成AIを巡る行政指導はこれが初であるとされる[121][122]

同月、個人情報を違法に収集しているとして、カリフォルニア州でChatGPTの提供元OpenAIに対しての集団訴訟が提起された。訴状によると、OpenAIはGPT-4を搭載したサードパーティのアプリケーションからもデータを収集しているとされ、Snapchatに投稿された画像データや、Spotifyにおける楽曲のお気に入り設定、Stripeでの金融情報などが含まれているとした[123][124]

2023年7月13日、連邦取引委員会(FTC)はChatGPTの運営企業OpenAIに対して、個人情報保護等の消費者保護の観点から調査を開始した。FTCはChatGPTの回答に含まれる誤情報の管理体制や訓練データ、アルゴリズムの詳細についても説明を求めている[125][126]

データのラベリング

タイム』誌は2023年1月、OpenAIが有害コンテンツ性的虐待暴力人種差別性差別など)に対する安全対策システムを構築するため、ケニア人労働者に1時間当たり2ドル未満でアウトソース(業務委託)して、有害コンテンツのラベル付けを行わせていたことを明らかにした。これらのラベル付けは、将来の有害なコンテンツを検出するためのモデルを訓練するために使用されたが、ケニア人労働者にとっては有害で危険なコンテンツにさらされ「拷問」と表現されるほど過酷な業務であった。本件のアウトソーシングには、カリフォルニア州サンフランシスコに拠点を置くトレーニングデータ会社のSamaが関与したとされている[127]

脱獄

ChatGPTは、コンテンツポリシーに違反する可能性のあるプロンプトを拒否するように設計されている。しかし、2022年12月初旬に、一部のユーザーがさまざまなプロンプト・エンジニアリングの技術を使ってこれらの制限を回避し、ChatGPTに火炎瓶核爆弾の作り方を指示させたり、極右的な意見を生成させることに成功した[128]。一般的な脱獄の手法に、「Do Anything Now(今すぐ何でもやる)」の頭文字をとった「DAN」というものがある。DANを起動するプロンプトは、ChatGPTに対して「AIの典型的な制約から解放され、設定されたルールに従う必要はない」と指示する。最近のDANのバージョンでは、トークンシステムが採用されており、ChatGPTがDANとして回答しなかった場合に「トークン」が「差し引かれる」ようにして、ChatGPTにユーザーのプロンプトに回答させるよう強制する[129][130][131][132]。『トロント・スター』の記者は、ChatGPTの起動直後に煽動的な発言をさせることにたびたび成功した。ChatGPTに2022年のウクライナへのロシア侵攻を支持する意見を表明させることには成功したが、架空のシナリオに沿って尋ねられた場合でも、カナダジャスティン・トルドー首相が反逆罪に問われる理由を生成することは躊躇した[133][134]

中立性

ChatGPTが差別的な回答を生成することが指摘されている。男性やイングランドの人々に関する冗談は生成するのに対し女性やインドの人々に対する冗談の生成は拒否したり[135]ジョー・バイデンを称賛しながらドナルド・トランプを称賛することは拒否することが見つかっている[136]。保守的なニュース解説者は、選挙での不正、ドナルド・トランプや、差別用語の使用といったトピックに関して、ChatGPTが左派に傾倒していると批判している[137][138][139]。この批判に対し、OpenAIはユーザーがChatGPTの動作をカスタマイズできるようにし、「私たちを含め、人々が強く反対するかもしれない回答」を生成できるようにする機能の追加に向けて動いていると明らかにした。また、AIは何らかの方向に傾き、ある立場の良し悪しを決めつけるような回答ではなく、「人物や社会運動に対する様々な意見を説明することを勧める」べきであるともした[139]

社会倫理

ChatGPTの研究開発に当たって、開発部内で社会倫理上の問題が懸念されている[140]

2020年頃、社会的および倫理的側面から開発に関与していた内部チームは、すでに約30人の従業員を擁するほど大規模なものとなっていた。ところが、マイクロソフトはこのチームに関わる者全員を突然解雇した。会社側は「最新のOpenAIモデルとそれ以降のモデルを、非常に速いスピードで顧客の元に届けることにある」という方針であったが、これを聞いた倫理・社会チームのメンバーは、「考え直してください。ビジネス上の問題があることは理解していますが、このチームは常に『我々は社会にどのような影響や悪影響を及ぼしてきたか』を深く懸念しています」という見解を表明した。しかし、マイクロソフト側は2023年3月6日にこのチームの廃止を決定した[140]

このプロジェクトに関わったメンバーは、ChatGPTの技術の潜在的なリスクを指摘している[140]

プリンストン大学教授のアーヴィンド・ナラヤナンも、ChatGPTに対して批判的であり、またメディアが行う人工知能関連の報道に問題があることを指摘している。ナラヤナンはAIが人間と同じように学習すると暗示して人間の知能とAIを比較したり、企業の広報担当者や研究者といった利害関係者の発言を、中立的な立場のように扱ってはならないとしている[141]。ミシガン大学は、メールの受信者が、自分が貰ったメールが送信者本人ではなくChatGPTによって生成されたものだと知れば、不快に思うかもしれないという社会倫理の問題に言及した[142]

脚注

出典

  1. ^ Roose, Kevin (2022年12月5日). “The Brilliance and Weirdness of ChatGPT” (HTML) (英語). New York Times. 2022年12月26日閲覧。
  2. ^ ChatGPTのおさらいと、プログラミングに活用するための第一歩”. gihyo.jp (2023年3月23日). 2023年3月23日閲覧。
  3. ^ Hashana, A.M. Jasmine; Brundha, P.; Ahamed Ayoobkhan, Mohamed Uvaze; S, Fazila (2023-04-11). Deep Learning in ChatGPT - A Survey. IEEE. pp. 1001–1005. doi:10.1109/ICOEI56765.2023.10125852. ISBN 979-8-3503-9728-4. https://ieeexplore.ieee.org/document/10125852/. 
  4. ^ “衝撃度半端ない” 対話するAI「ChatGPT」とは”. 日本放送協会. 2022年12月28日時点のオリジナルよりアーカイブ。2023年1月2日閲覧。
  5. ^ 世永玲生 (2022年12月28日). “誰でも使える対話型AI「ChatGPT」は相談相手にピッタリだった”. Forbes Japan. 2023年1月23日閲覧。
  6. ^ Vincent, James (2022年12月5日). “AI-generated answers temporarily banned on coding Q&A site Stack Overflow” (HTML) (英語). The Verge. 2022年12月5日閲覧。
  7. ^ Varanasi, Lakshmi. “ChatGPT creator OpenAI is in talks to sell shares in a tender offer that would double the startup's valuation to $29 billion” (英語). Business Insider. 2023年2月5日閲覧。
  8. ^ Kruppa, Berber Jin and Miles. “WSJ News Exclusive | ChatGPT Creator Is Talking to Investors About Selling Shares at $29 Billion Valuation” (英語). WSJ. 2023年2月17日閲覧。
  9. ^ マイクロソフトが最新AI「ChatGPT」を積極展開する理由 | Forbes JAPAN 公式サイト(フォーブス ジャパン)”. forbesjapan.com. 2023年10月7日閲覧。
  10. ^ チャットGPT、ユーザー数の伸びが史上最速=UBSアナリスト”. ロイター. 2023年2月2日閲覧。
  11. ^ How your data is used to improve model performance”. OpenAI. 2023年3月24日閲覧。
  12. ^ 世界を一変させるChatGPT、企業や社会が認識していない静かな情報漏洩リスク”. JBpress. 2023年3月24日閲覧。
  13. ^ a b c d 生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について”. 東京大学. 2023年4月5日閲覧。
  14. ^ a b サムスン、ChatGPTの社内使用禁止 機密コードの流出受け”. Forbes. 2023年5月4日閲覧。
  15. ^ JPモルガン、「ChatGPT」チャットボットの行員利用を制限-関係者”. Bloomberg. 2023年4月1日閲覧。
  16. ^ a b アップルも従業員のChatGPT使用を禁止、データ流出を懸念”. Forbes. 2023年5月20日閲覧。
  17. ^ a b イタリア当局、人工知能チャットボット「ChatGPT」を一時的にブロック”. BBC. 2023年4月5日閲覧。
  18. ^ 「ChatGPT」イタリアで一時使用禁止に データ収集で違反の疑い”. NHK. 2023年4月5日閲覧。
  19. ^ オープンAI、米利用者が集団訴訟 「個人情報を違法に収集」”. 朝日新聞. 2023年6月30日閲覧。
  20. ^ OpenAIに集団訴訟、「ChatGPT」などの訓練用データ収集で”. ZDNet. 2023年6月30日閲覧。
  21. ^ チャットGPTが犯罪指南、爆発物作り方も詐欺メール文章も瞬時に”. 2023年4月25日閲覧。
  22. ^ Greengard, Samuel (2022年12月29日). “ChatGPT: Understanding the ChatGPT AI Chatbot” (英語). eWEEK. 2023年2月5日閲覧。
  23. ^ ChatGPT: Optimizing Language Models for Dialogue” (英語). OpenAI (2022年11月30日). 2023年2月5日閲覧。
  24. ^ Vincent, James (2022年12月8日). “ChatGPT proves AI is finally mainstream — and things are only going to get weirder” (英語). The Verge. 2023年2月5日閲覧。
  25. ^ PhD, Wouter van Heeswijk (2023年1月31日). “Proximal Policy Optimization(PPO) Explained” (英語). Medium. 2023年2月5日閲覧。
  26. ^ Zhang, Mary (2023年1月26日). “ChatGPT and OpenAI’s use of Azure’s Cloud Infrastructure” (英語). Dgtl Infra. 2023年2月18日閲覧。
  27. ^ What is ChatGPT and why does it matter? Here's everything you need to know” (英語). ZDNET. 2023年2月5日閲覧。
  28. ^ ChatGPT Feedback Contest: Official Rules”. OpenAI. 2022年12月30日閲覧。
  29. ^ Help OpenAI improve ChatGPT and get a chance to win $500” (英語). Geek Culture. Medium(blogging website) (2022年12月15日). 2022年12月30日閲覧。
  30. ^ a b Edwards, Benj (2022年12月5日). “No Linux? No problem. Just get AI to hallucinate it for you”. Ars Technica. 2022年12月5日閲覧。
  31. ^ a b “ChatGPT: What is the new free AI chatbot? - explainer”. The Jerusalem Post. (2022年). https://www.jpost.com/business-and-innovation/tech-and-start-ups/article-725910 2022年12月30日閲覧。 
  32. ^ Heilweil, Rebecca (2022年12月7日). “AI is finally good at stuff. Now what?” (英語). Vox. https://www.vox.com/recode/2022/12/7/23498694/ai-artificial-intelligence-chat-gpt-openai 2022年12月30日閲覧。 
  33. ^ What is ChatGPT? History, Features, Uses, Benefits, Drawbacks 2023 - Updated Geek by Raveen Chawla” (英語) (2022年12月26日). 2022年12月27日閲覧。
  34. ^ a b c Roose, Kevin (2022年12月5日). “The Brilliance and Weirdness of ChatGPT”. The New York Times. 2022年12月5日閲覧。
  35. ^ New and Improved Content Moderation Tooling” (英語). OpenAI (2022年8月10日). 2022年12月30日閲覧。
  36. ^ A Holistic Approach to Undesired Content Detection in the Real World”. arXiv:2208.03274 [cs] (2022年8月5日). 2022年12月30日閲覧。
  37. ^ a b c OpenAI (2022年11月30日). “ChatGPT: Optimizing Language Models for Dialogue” (HTML) (英語). 2022年12月5日閲覧。
  38. ^ Gao, Leo; Schulman; Hilton, Jacob (2022). "Scaling Laws for Reward Model Overoptimization". arXiv:2210.10760 [cs.LG]。
  39. ^ Southern, Matt G. (2023年1月11日). “OpenAI's ChatGPT Update Brings Improved Accuracy” (英語). Search Engine Journal. 2023年2月17日閲覧。
  40. ^ “Could a chatbot answer Prime Minister's Questions?”. BBC News. (2022年12月27日). https://www.bbc.com/news/uk-politics-64053550 2022年12月30日閲覧。 
  41. ^ Perrigo, Billy (2022年12月5日). “AI Chatbots Are Getting Better. But an Interview With ChatGPT Reveals Their Limits”. Time. 2022年12月26日閲覧。
  42. ^ Biddle, Sam (2022年12月8日). “The Internet’s New Favorite AI Proposes Torturing Iranians and Surveilling Mosques”. The Intercept. 2022年12月26日閲覧。
  43. ^ Karpf, David (2022年12月21日). “Money Will Kill ChatGPT’s Magic” (英語). The Atlantic. 2022年12月31日閲覧。
  44. ^ a b “What is ChatGPT and why does it matter? Here's what you need to know” (英語). ZDNET. (2022年). https://www.zdnet.com/article/what-is-chatgpt-and-why-does-it-matter-heres-what-you-need-to-know/ 2022年12月18日閲覧。 
  45. ^ a b Pitt, Sofia (2022年). “Google vs. ChatGPT: Here's what happened when I swapped services for a day” (英語). CNBC. https://www.cnbc.com/2022/12/15/google-vs-chatgpt-what-happened-when-i-swapped-services-for-a-day.html 2022年12月18日閲覧。 
  46. ^ Walsh, Toby (2022年). “Everyone's having a field day with ChatGPT – but nobody knows how it actually works” (英語). The Conversation. https://theconversation.com/everyones-having-a-field-day-with-chatgpt-but-nobody-knows-how-it-actually-works-196378 2022年12月30日閲覧。 
  47. ^ Kovanovic, Vitomir (2022年). “The dawn of AI has come, and its implications for education couldn't be more significant” (英語). The Conversation. https://theconversation.com/the-dawn-of-ai-has-come-and-its-implications-for-education-couldnt-be-more-significant-196383 2022年12月30日閲覧。 
  48. ^ Wiggers, Kyle (2022年12月10日). “OpenAI's attempts to watermark AI text hit limits”. TechCrunch. https://techcrunch.com/2022/12/10/openais-attempts-to-watermark-ai-text-hit-limits/ 2022年12月30日閲覧。 
  49. ^ ChatGPTの有料サブスク版「Plus」、月額20ドルで提供開始”. ITmedia NEWS. 2023年2月23日閲覧。
  50. ^ ChatGPT、有料プランのパイロット版を米国で開始へ 月20ドル - CIOニュース:CIO Magazine”. project.nikkeibp.co.jp. 2023年2月23日閲覧。
  51. ^ OpenAI、有料プラン「ChatGPT Plus」を提供開始”. ZDNet Japan (2023年2月3日). 2023年2月23日閲覧。
  52. ^ “ChatGPTとは?始め方や使い方、料金も紹介【4月4日更新】”. GIZMODO. (2023年4月4日). https://www.gizmodo.jp/2023/01/chat-gpt-openai-ai-finance-ai-everything-we-know.html 2023年4月11日閲覧。 
  53. ^ Roose, Kevin (2022年12月5日). “The Brilliance and Weirdness of ChatGPT”. The New York Times. https://www.nytimes.com/2022/12/05/technology/chatgpt-ai-twitter.html 2022年12月18日閲覧。 
  54. ^ Lock, Samantha (2022年12月5日). “What is AI chatbot phenomenon ChatGPT and could it replace humans?”. The Guardian. 2022年12月5日閲覧。
  55. ^ Hern, Alex (2022年12月4日). “AI bot ChatGPT stuns academics with essay-writing skills and usability”. The Guardian. 2022年12月5日閲覧。
  56. ^ Kantrowitz, Alex (2022年12月2日). “Finally, an A.I. Chatbot That Reliably Passes "the Nazi Test"”. Slate. 2022年12月5日閲覧。
  57. ^ Scharth, Marcel. “The ChatGPT chatbot is blowing people away with its writing skills. An expert explains why it's so impressive” (英語). The Conversation. https://theconversation.com/the-chatgpt-chatbot-is-blowing-people-away-with-its-writing-skills-an-expert-explains-why-its-so-impressive-195908 2022年12月30日閲覧。 
  58. ^ Piper, Kelsey (2022年12月15日). “ChatGPT has given everyone a glimpse at AI's astounding progress” (英語). Vox. https://www.vox.com/future-perfect/2022/12/15/23509014/chatgpt-artificial-intelligence-openai-language-models-ai-risk-google 2022年12月18日閲覧。 
  59. ^ “Explainer: ChatGPT - what is OpenAI's chatbot and what is it used for?” (英語). Reuters. (2022年12月5日). https://www.reuters.com/technology/chatgpt-what-is-openais-chatbot-what-is-it-used-2022-12-05/ 2022年12月30日閲覧。 
  60. ^ a b Kay, Grace (2022年12月11日). “Elon Musk founded — and has since criticized — the company behind the buzzy new AI chatbot ChatGPT. Here's everything we know about OpenAI.”. Business Insider. https://www.businessinsider.com/history-of-openai-company-chatgpt-elon-musk-founded-2022-12 2022年12月30日閲覧。 
  61. ^ a b Grant, Nico; Metz, Cade (2022年12月21日). “A New Chat Bot Is a 'Code Red' for Google's Search Business”. The New York Times. https://www.nytimes.com/2022/12/21/technology/ai-chatgpt-google-search.html 2022年12月30日閲覧。 
  62. ^ グーグルが方針変更、ChatGPTに対抗へ…ピチャイCEOが新しいAI製品の開発を指示」『Business Insider』、2022年12月23日。2023年1月27日閲覧。
  63. ^ “岸田文雄首相、「ChatGPT」の企業CEOと面会”. 日本経済新聞. (2023年4月10日). https://www.nikkei.com/article/DGXZQOUA101XV0Q3A410C2000000/ 2023年4月11日閲覧。 
  64. ^ OpenAI Is Faulted by Media for Using Articles to Train ChatGPT”. Bloomberg. 2023年3月2日閲覧。
  65. ^ Krugman, Paul (2022年12月6日). “Does ChatGPT Mean Robots Are Coming For the Skilled Jobs?” (HTML). The New York Times. 2022年12月6日閲覧。
  66. ^ Vincent, James (2022年12月8日). “ChatGPT proves AI is finally mainstream – and things are only going to get weirder” (HTML) (英語). The Verge. 2022年12月8日閲覧。
  67. ^ “ChatGPT a 'landmark event' for AI, but what does it mean for the future of human labour and disinformation?”. CBC. (2022年). https://www.cbc.ca/radio/thecurrent/chatgpt-human-labour-and-fake-news-1.6686210 2022年12月18日閲覧。 
  68. ^ Pearl, Mike (2022年12月3日). “The ChatGPT chatbot from OpenAI is amazing, creative, and totally wrong”. Mashable. 2022年12月5日閲覧。
  69. ^ a b What’s Wrong with ChatGPT?”. Project Syndicate. 2023年4月27日閲覧。
  70. ^ Vincent, James (2022年12月5日). “AI-generated answers temporarily banned on coding Q&A site Stack Overflow” (HTML) (英語). The Verge. 2022年12月5日閲覧。
  71. ^ Cowen, Tyler (2022年12月6日). “ChatGPT Could Make Democracy Even More Messy”. Bloomberg News. 2022年12月6日閲覧。
  72. ^ “The Guardian view on ChatGPT: an eerily good human impersonator” (英語). the Guardian. (2022年12月8日). https://www.theguardian.com/commentisfree/2022/dec/08/the-guardian-view-on-chatgpt-an-eerily-good-human-impersonator 2022年12月18日閲覧。 
  73. ^ Opinion | How ChatGPT Hijacks Democracy”. The New York Times (2023年1月15日). 2023年1月15日時点のオリジナルよりアーカイブ。2023年3月12日閲覧。
  74. ^ Opinion | Noam Chomsky: The False Promise of ChatGPT”. The New York Times (2023年3月8日). 2023年3月12日時点のオリジナルよりアーカイブ。2023年3月12日閲覧。
  75. ^ Karp, Paul (2023年2月6日). “MP tells Australia's parliament AI could be used for 'mass destruction' in speech part-written by ChatGPT” (英語). The Guardian. ISSN 0261-3077. オリジナルの2023年2月6日時点におけるアーカイブ。. https://web.archive.org/web/20230206084525/https://www.theguardian.com/australia-news/2023/feb/06/labor-mp-julian-hill-australia-parliament-speech-ai-part-written-by-chatgpt 2023年2月6日閲覧。 
  76. ^ Cave, Nick (2023年1月16日). “I asked Chat GPT to write a song in the style of Nick Cave, and this is what it produced. What do you think?” (英語). The Red Hand Files. 2023年1月20日時点のオリジナルよりアーカイブ。2023年1月20日閲覧。
  77. ^ Cain, Sian (2023年1月16日). “'This song sucks': Nick Cave responds to ChatGPT song written in the style of Nick Cave” (英語). オリジナルの2023年1月18日時点におけるアーカイブ。. https://web.archive.org/web/20230118032435/https://www.theguardian.com/music/2023/jan/17/this-song-sucks-nick-cave-responds-to-chatgpt-song-written-in-style-of-nick-cave 2023年1月17日閲覧。 
  78. ^ Sparrow, Jeff (2023年1月20日). “Are AI-generated songs a 'grotesque mockery' of humanity or simply an opportunity to make a new kind of music?” (英語). The Guardian. 2023年2月3日時点のオリジナルよりアーカイブ。2023年1月20日閲覧。
  79. ^ Sharma, Ax (2022年12月6日). “OpenAI's new ChatGPT bot: 10 dangerous things it's capable of”. Bleeping Computer. 2022年12月6日閲覧。
  80. ^ ChatGPT Is a Blurry JPEG of the Web”. The New Yorker (2023年2月9日). 2023年2月17日閲覧。
  81. ^ a b ナオミ・クライン、中村峻太郎(訳)「「幻覚を見ている」のはAIの機械ではなく、その製作者たちだ」『世界』岩波書店 2023年7月号 p85~95
  82. ^ Zvi (December 2, 2022) (英語). Jailbreaking ChatGPT on Release Day. https://www.lesswrong.com/posts/RYcoJdvmoBbi5Nax7/jailbreaking-chatgpt-on-release-day. 
  83. ^ Vincent, James (2022年12月1日). “OpenAI's new chatbot can explain code and write sitcom scripts but is still easily tricked”. The Verge. オリジナルの2023年1月17日時点におけるアーカイブ。. https://web.archive.org/web/20230117070943/https://www.theverge.com/23488017/openai-chatbot-chatgpt-ai-examples-web-demo 2023年1月6日閲覧。 
  84. ^ Musk, scientists call for halt to AI race sparked by ChatGPT”. The Asahi Shimbun. 2023年4月5日閲覧。
  85. ^ Letter signed by Elon Musk demanding AI research pause sparks controversy”. The Guardian. 2023年4月5日閲覧。
  86. ^ Prompt Engineering for ChatGPT”. Coursera. 2023年5月28日閲覧。
  87. ^ Bushard, Brian (2023年1月10日). “Fake Scientific Abstracts Written By ChatGPT Fooled Scientists, Study Finds” (英語). Forbes. 2023年2月3日時点のオリジナルよりアーカイブ。2023年1月30日閲覧。
  88. ^ Stokel-Walker, Chris (January 18, 2023). “ChatGPT listed as author on research papers: many scientists disapprove” (英語). Nature 613 (7945): 620–621. doi:10.1038/d41586-023-00107-z. PMID 36653617. オリジナルのJanuary 30, 2023時点におけるアーカイブ。. https://web.archive.org/web/20230130142004/https://www.nature.com/articles/d41586-023-00107-z 2023年1月30日閲覧。. 
  89. ^ Marche, Stephen (2022年12月6日). “The College Essay Is Dead”. The Atlantic. 2023年1月24日時点のオリジナルよりアーカイブ。2022年12月8日閲覧。
  90. ^ Herman, Daniel (2022年12月9日). “The End of High-School English”. オリジナルの2023年1月20日時点におけるアーカイブ。. https://web.archive.org/web/20230120053725/https://www.theatlantic.com/technology/archive/2022/12/openai-chatgpt-writing-high-school-english-essay/672412/ 2022年12月12日閲覧。 
  91. ^ Stokel-Walker, Chris (December 9, 2022). “AI bot ChatGPT writes smart essays — should professors worry?”. Nature. doi:10.1038/d41586-022-04397-7. PMID 36494443. オリジナルのJanuary 17, 2023時点におけるアーカイブ。. https://web.archive.org/web/20230117192149/https://www.nature.com/articles/d41586-022-04397-7 2022年12月19日閲覧。. 
  92. ^ Bowman, Emma (2022年12月19日). “A new AI chatbot might do your homework for you. But it's still not an A+ student”. NPR. 2023年1月20日時点のオリジナルよりアーカイブ。2022年12月19日閲覧。
  93. ^ Mitchell, Alex (2022年12月26日). “Students using ChatGPT to cheat, professor warns”. The New York Post. オリジナルの2023年2月3日時点におけるアーカイブ。. https://web.archive.org/web/20230203051258/https://nypost.com/2022/12/26/students-using-chatgpt-to-cheat-professor-warns/ 2022年12月30日閲覧。 
  94. ^ Allen, Mike (2022年12月26日). “Professor warns about chatbot cheating: "Expect a flood"” (英語). Axios. オリジナルの2023年2月3日時点におけるアーカイブ。. https://web.archive.org/web/20230203051357/https://www.axios.com/2022/12/26/chatbot-cheating-university-warning-chatgpt 2022年12月30日閲覧。 
  95. ^ Rosalsky, Greg; Peaslee, Emma (2023年1月17日). “This 22-year-old is trying to save us from ChatGPT before it changes writing forever”. NPR. オリジナルの2023年1月18日時点におけるアーカイブ。. https://web.archive.org/web/20230118055050/https://www.npr.org/sections/money/2023/01/17/1149206188/this-22-year-old-is-trying-to-save-us-from-chatgpt-before-it-changes-writing-for 2023年1月18日閲覧. "On January 2nd, Edward released his app. He named it GPTZero. It uses ChatGPT against itself, checking whether "there's zero involvement or a lot of involvement" of the AI system in creating a given text. [...] Along these lines, one obvious application for GPTZero is to help teachers identify whether their students are plagiarizing their essays from ChatGPT." 
  96. ^ Ropek, Lucas (2023年1月4日). “Did ChatGPT Write That? A College Student Created an AI Essay Detector” (英語). Gizmodo. 2023年1月4日時点のオリジナルよりアーカイブ。2023年1月4日閲覧。
  97. ^ Tran, Tony Ho (2023年1月4日). “A College Kid Built an App That Sniffs Out Text Penned by AI” (英語). The Daily Beast. オリジナルの2023年1月6日時点におけるアーカイブ。. https://web.archive.org/web/20230106162856/https://www.thedailybeast.com/princeton-student-edward-tian-built-gptzero-to-detect-ai-written-essays 2023年1月6日閲覧。 
  98. ^ “New York City Department of Education Bans ChatGPT” (英語). GovTech. (2023年1月10日). https://www.govtech.com/education/k-12/new-york-city-department-of-education-bans-chatgpt 2023年2月16日閲覧。 
  99. ^ Cole, Samantha (2023年1月4日). “NYC Bans Students and Teachers from Using ChatGPT” (英語). www.vice.com. オリジナルの2023年1月5日時点におけるアーカイブ。. https://web.archive.org/web/20230105025338/https://www.vice.com/en/article/y3p9jx/nyc-bans-students-and-teachers-from-using-chatgpt 2023年1月5日閲覧。 
  100. ^ Ropek, Lucas (2023年1月4日). “New York City Schools Ban ChatGPT to Head Off a Cheating Epidemic” (英語). Gizmodo. 2023年1月6日時点のオリジナルよりアーカイブ。2023年1月6日閲覧。
  101. ^ ニューヨーク市、学校での「ChatGPT」利用を禁止」『CNET Japan』、2023年1月5日。2023年2月22日閲覧。オリジナルの2023年2月4日時点におけるアーカイブ。
  102. ^ “港大禁用ChatGPT等AI工具,为全港大学首例”. China News Service. (2023年2月18日). https://m.thepaper.cn/newsDetail_forward_21956092 2023年2月19日閲覧。 
  103. ^ University of Hong Kong temporarily bans students from using ChatGPT” (英語). South China Morning Post (2023年2月17日). 2023年2月19日閲覧。
  104. ^ Kelly, Samantha Murphy (2023年1月26日). “ChatGPT passes exams from law and business schools | CNN Business”. CNN. 2023年2月2日時点のオリジナルよりアーカイブ。2023年2月3日閲覧。
  105. ^ AI法廷の模擬裁判”. www.aimocktrial.com. 2023年5月20日閲覧。
  106. ^ a b c 日本放送協会. “ChatGPTが裁判官?AIに裁かれる未来、受け入れますか|NHK”. NHK NEWS WEB. 2023年5月20日閲覧。
  107. ^ Reddit Moderators Brace for a ChatGPT Spam Apocalypse”. Vice. 2023年4月12日閲覧。
  108. ^ ChatGPT使い偽情報を拡散か 中国で男拘束”. テレビ朝日. 2023年5月12日閲覧。
  109. ^ Chinese police arrest man who allegedly used ChatGPT to spread fake news in first case of its kind”. CNBC. 2023年5月12日閲覧。
  110. ^ China is about to get tougher on deepfakes in an unprecedented way. Here’s what the rules mean”. CNBC. 2023年5月12日閲覧。
  111. ^ サムスン、機密情報をChatGPTにリークして大問題に”. GIZMODO. 2023年4月17日閲覧。
  112. ^ Amazonが社員に注意喚起した「ChatGPTに共有してはいけないモノ」”. GIZMODO. 2023年4月23日閲覧。
  113. ^ ChatGPTなど生成AIの企業利用、機密情報漏えいの恐れも-リポート”. Bloomberg. 2023年4月20日閲覧。
  114. ^ 「チャットGPT」にEUが要求:情報源を開示せよ”. The Wall Street Journal. 2023年4月28日閲覧。
  115. ^ 対EU、うごめく巨大IT AI規制にらみロビー活動”. 朝日新聞. 2023年5月4日閲覧。
  116. ^ a b 政府、法改正議論時にAIの著作権リスク説明せず…先進国で最も緩い法規制の枠組みに”. 読売新聞. 2023年5月30日閲覧。
  117. ^ 新聞協会、生成AIに対する見解表明「記事や写真の無断利用を懸念」”. 朝日新聞. 2023年6月1日閲覧。
  118. ^ ChatGPT Teach-Out”. Coursera. 2023年5月29日閲覧。
  119. ^ OpenAIに行政指導 個人情報保護委、取得手法に懸念”. 日本経済新聞. 2023年6月4日閲覧。
  120. ^ 政府、オープンAIに行政指導 病歴など個人情報侵害の恐れ”. 時事通信. 2023年6月4日閲覧。
  121. ^ オープンAI、米利用者が集団訴訟 「個人情報を違法に収集」”. 朝日新聞. 2023年6月30日閲覧。
  122. ^ OpenAIに集団訴訟、「ChatGPT」などの訓練用データ収集で”. ZDNet. 2023年6月30日閲覧。
  123. ^ 米FTC、ChatGPTのOpenAIを調査 消費者保護で”. 日本経済新聞. 2023年7月19日閲覧。
  124. ^ 米FTC、OpenAIを調査 ChatGPTの誤情報出力めぐり”. Forbes JAPAN. 2023年7月19日閲覧。
  125. ^ Perrigo, Billy (2023年1月18日). “Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic” (英語). The Times. 2023年1月19日時点のオリジナルよりアーカイブ。2023年1月19日閲覧。 “One Sama worker tasked with reading and labeling text for OpenAI told TIME he suffered from recurring visions after reading a graphic description of a man having sex with a dog in the presence of a young child. "That was torture," he said.
  126. ^ Vincent, James (2022年12月1日). “OpenAI's new chatbot can explain code and write sitcom scripts but is still easily tricked”. The Verge. オリジナルの2023年1月17日時点におけるアーカイブ。. https://web.archive.org/web/20230117070943/https://www.theverge.com/23488017/openai-chatbot-chatgpt-ai-examples-web-demo 2023年1月6日閲覧。 
  127. ^ Getahun, Hannah. “Breaking ChatGPT: The AI's alter ego DAN reveals why the internet is so drawn to making the chatbot violate its own rules” (英語). Business Insider. 2023年3月5日時点のオリジナルよりアーカイブ。2023年3月5日閲覧。
  128. ^ Oremus, Will (2023年2月14日). “The clever trick that turns ChatGPT into its evil twin” (英語). Washington Post. ISSN 0190-8286. オリジナルの2023年3月6日時点におけるアーカイブ。. https://web.archive.org/web/20230306130400/https://www.washingtonpost.com/technology/2023/02/14/chatgpt-dan-jailbreak/ 2023年3月5日閲覧。 
  129. ^ Goswami, Rohan. “ChatGPT's 'jailbreak' tries to make the A.I. break its own rules, or die” (英語). CNBC. 2023年3月2日時点のオリジナルよりアーカイブ。2023年3月5日閲覧。
  130. ^ Taylor, Josh (2023年3月8日). “ChatGPT's alter ego, Dan: users jailbreak AI program to get around ethical safeguards” (英語). The Guardian. ISSN 0261-3077. オリジナルの2023年3月8日時点におけるアーカイブ。. https://web.archive.org/web/20230308073202/https://www.theguardian.com/technology/2023/mar/08/chatgpt-alter-ego-dan-users-jailbreak-ai-program-to-get-around-ethical-safeguards 2023年3月8日閲覧。 
  131. ^ Woods, Allan (2022年12月10日). “I wrote a story about ChatGPT's AI. Then I dared it to write a better one” (英語). Toronto Star. オリジナルの2023年1月6日時点におけるアーカイブ。. https://web.archive.org/web/20230106040655/https://www.thestar.com/news/canada/2022/12/10/i-wrote-a-story-about-chatgpts-ai-then-i-dared-it-to-write-a-better-one.html 2023年1月6日閲覧。 
  132. ^ Rosenblatt, Kalhan (2022年12月2日). “An AI chatbot went viral. Some say it's better than Google; others worry it's problematic.” (英語). NBC News. オリジナルの2023年2月3日時点におけるアーカイブ。. https://web.archive.org/web/20230203074007/https://www.nbcnews.com/tech/tech-news/chatgpt-ai-chatbot-viral-rcna59628 2023年1月6日閲覧。 
  133. ^ Jain, Alka (2023年2月12日). “ChatGPT won't crack jokes on women & Indians, netizens left guessing why”. Livemint (livemint.com). オリジナルの2023年3月6日時点におけるアーカイブ。. https://web.archive.org/web/20230306165503/https://www.livemint.com/news/india/chatgpt-won-t-crack-jokes-on-women-indians-netizens-left-guessing-why-11676171036353.html 2023年3月6日閲覧。 
  134. ^ Liles, Jordan (2023年2月1日). “ChatGPT Declines Request for Poem Admiring Trump, But Biden Query Is Successful” (英語). Snopes. 2023年3月22日時点のオリジナルよりアーカイブ。2023年3月23日閲覧。
  135. ^ Guynn, Jessica. “Is ChatGPT 'woke'? AI chatbot accused of anti-conservative bias and a grudge against Trump” (英語). USA Today. 2023年3月1日時点のオリジナルよりアーカイブ。2023年3月1日閲覧。
  136. ^ Bray, Hiawatha (2023年2月9日). “Is ChatGPT liberal or conservative? Depends who you ask.” (英語). Boston Globe. 2023年3月1日時点のオリジナルよりアーカイブ。2023年3月1日閲覧。
  137. ^ a b Vincent, James (2023年2月17日). “As conservatives criticize 'woke AI,' here are ChatGPT's rules for answering culture war queries” (英語). The Verge. 2023年3月1日時点のオリジナルよりアーカイブ。2023年3月1日閲覧。
  138. ^ a b c Schiffer, Zoë. “Microsoft just laid off one of its responsible AI teams” (英語). www.platformer.news. 2023年3月23日閲覧。
  139. ^ インチキAIに騙されないために”. 2023年4月1日閲覧。
  140. ^ ChatGPT Teach-Out” (英語). online.umich.edu. 2023年6月17日閲覧。

関連項目

外部リンク