ChatGPTは「不正」でゴーストライターは「文化」なのか

AIに文章を書かせることが問題なら、100年以上続いてきた代筆という慣行はどう説明するのか。「言葉の所有権」をめぐる古い議論が、いま新しい姿で蘇っている。

ChatGPTは「不正」でゴーストライターは「文化」なのか

AIに文章を書かせることが問題なら、100年以上続いてきた代筆という慣行はどう説明するのか。「言葉の所有権」をめぐる古い議論が、いま新しい姿で蘇っている。


銃乱射事件に寄せた「AIの弔辞」

AIが書いた弔辞は、人の心に届くのか。2023年2月、ミシガン州立大学で銃乱射事件が起きた直後、ヴァンダービルト大学は学生に向けてメールを送った。「最近のミシガンでの銃撃は、お互いを大切にすることの重要性を思い起こさせます」という文面の末尾には、小さな文字でこう記されていた。「OpenAIのChatGPTから引用」と。

学生たちは即座に反発した。ある4年生は「コンピュータに連帯のメッセージを書かせるという、病的で皮肉な行為だ」と批判している。大学は翌日に謝罪メールを送り、倫理調査を開始。関連する副学部長2名が一時的に職務を離れる事態にまで発展した。

この事件は 「AIに文章を書かせること」 への不信感を象徴するエピソードとして、今なお引用される。だが立ち止まって考えてみてほしい。他人に文章を書かせ、自分の名前で発表する行為は、AIが登場するはるか前から存在していた。

ゴーストライティングという「公然の秘密」

ゴーストライティング――他者の名義で文章を書く有償の取り決め――は100年以上の歴史を持つ。USC(南カリフォルニア大学)の英文学教授エミリー・ホジソン・アンダーソンによれば、この用語が英語で初めて登場したのは1908年のネブラスカ州の新聞記事だという。彼女は現在、『Ghostwriting: A Secret History, from God to A.I.』と題した著書を執筆中だ。

現代のゴーストライティングは、主にセレブリティや多忙な専門家と職業ライターの間で行われている。ハリー王子の回顧録を手がけたJ.R.メーリンガーは100万ドル(約1億6,000万円)の前払いを受けたとされる。ウーピー・ゴールドバーグも、自著の最終章でゴーストライターを使ったことへのためらいを吐露している。

つまり、「自分の言葉ではないものを自分の名前で出す」という構造は、テクノロジー以前から社会が容認してきた慣行なのだ。

なぜ人はゴーストライターを「許す」のにAIを「許さない」のか

The Conversationに掲載されたアンダーソンの論考が指摘するのは、ゴーストライティングとAI利用の間にある奇妙な非対称性だ。

If using ChatGPT is cheating, what about ghostwriting? The old debate behind a new panic
Has our culture’s begrudging acceptance of ghostwriting paved the way for everyone – not just the rich and famous – to offload the hard work of writing?

ゴーストライターは契約のもとで「独自性の保証」に署名し、盗用チェックツールで内容を検証する。不正確な記述が見つかれば、しばしばゴーストライター側が責任を負う。実際、2024年にはサウスダコタ州知事(当時)のクリスティ・ノームが、回顧録に北朝鮮の金正恩と会ったという虚偽の記述があった件で、ゴーストライターの責任だと主張した。

一方、AIにはそうした責任の主体がない。ChatGPTは契約書に署名しないし、間違いの責任も取らない。だがそれは本質的な問題だろうか。

ここに浮かび上がるのは、もっと根深い問いだ。人間は「誰が書いたか」よりも 「そこに意思があったかどうか」 を気にしている。ゴーストライターの背後には、少なくとも「この人物の思考を代弁しよう」という人間の意志がある。AIの背後にあるのは、プロンプトと確率分布だけだ。

19世紀の彫刻家が示した「境界線」

この問題は文章に限らない。アンダーソンは論考の中で、19世紀の興味深い裁判例を紹介している。ある彫刻家が、助手に作品の大部分を制作させていたことが問題になった事件だ。

裁判官は、一定量の「機械的な補助」は芸術の誠実さを損なわないと認めた。ただし、その補助が「不誠実」になる閾値があるとも述べた。最終的に裁判官は、彫刻家にその場で胸像を作らせ、実力を証明させたという。

この判例が示唆するのは、「支援を受けること」と「能力を偽ること」の間に境界線が存在するということだ。そしてAI時代の教育が直面しているのは、まさにこの境界線の再設定にほかならない。


「全員がゴーストライターを持てる時代」の倫理

多くの大学はいま、AIの利用を許可しつつも、正確性の検証と使用の開示を求めている。USCの方針は明確だ――「生成AIを含め、他者が作成したコンテンツを自分のものとして提示してはならない」。

マサチューセッツ大学は、学問の現場におけるAIの最大のリスクは不正行為そのものではなく、「人間の学びのプロセスそのものの緩やかな侵食」だと指摘している。

だがこのルールは、そのままゴーストライティング契約の条項にも当てはまる。エディターが著者の文章を磨き、テレビ番組が脚本家チームによって書かれ、研究論文が共同執筆されるのは日常だ。「他者の協力を得て何かを作る」こと自体は、人間の知的営みの根幹にある。

生成AIの本質的なインパクトは、それまで富裕層の特権だったゴーストライティングを全員に開放したことにある。

ゴーストライターのジョシュ・リセックは、アンダーソンに対して「今後、ゴーストライティングはエリート向けの高級サービスとして差別化しなければ生き残れない」と語っている。

ChatGPTが「万人のゴーストライター」になった世界で、問われるのはもはや「AIを使ったかどうか」ではない。バイラインに名前がある人間が、その言葉に対してどれだけの思考と責任を負っているか。読者が本当に求めているのは、テキストの出自ではなく、書き手の誠実さなのかもしれない。


参照元


#ChatGPT #ゴーストライティング #AI倫理 #ヴァンダービルト大学 #著作権 #ゴーストライター #AIと教育 #情報の灯台