ChatGPTが「クラウドストレージ」になった日――Library機能の便利さと不気味さ

あなたがChatGPTにアップロードしたファイル、実はすでに保存されている。OpenAIが新たに公開した「Library」機能は、便利さの裏に見過ごせない問いを突きつけている。

ChatGPTが「クラウドストレージ」になった日――Library機能の便利さと不気味さ
OpenAI

あなたがChatGPTにアップロードしたファイル、実はすでに保存されている。OpenAIが新たに公開した「Library」機能は、便利さの裏に見過ごせない問いを突きつけている。


ChatGPT Libraryとは何か

OpenAIがChatGPTに「Library」という新機能を展開している。ユーザーがチャットにアップロードした文書、スプレッドシート、プレゼン資料、画像を、OpenAIのクラウド上に自動保存し、別のチャットから再利用できる仕組みだ。

サイドバーに追加された「Library」タブから保存ファイルを一覧・検索でき、コンポーザーの添付メニューから直接呼び出せる。BleepingComputerが報じたところでは、ページをリロードしただけでLibraryが自動的に出現し、しかも中身は空ではなかった。過去2週間にアップロードしたファイルが、すでに保存されていたのだ。

OpenAI rolls out ChatGPT Library to store your personal files
OpenAI is rolling out a new feature called ‘Library’ for ChatGPT, which allows you to store your personal files or images on OpenAI’s cloud storage, so you can reference those items in a future chat.

つまり、この機能はユーザーが「使い始めた」のではない。OpenAIが「すでに始めていた」のだ。

対象ユーザーとEU除外が示すもの

Library機能を利用できるのは、Plus(月額20ドル、約3,200円)、Pro、Businessの有料プランユーザーに限られる。現時点ではWeb版のみの対応で、iOS・Androidでは「最近使ったファイル」の参照とファイル検索が利用可能だ。

注目すべきは、欧州経済領域(EEA)、スイス、英国が除外されていることだろう。OpenAIのヘルプセンターには、これらの地域への提供は「coming soon」と記載されている。

https://x.com/btibor91/status/2036175835837899089

理由は明言されていないが、GDPRとの整合性を確保する必要があるのは明白だ。ファイルの自動保存、保存データのモデル学習への利用可能性、削除後30日間のサーバー残存期間――いずれもGDPR第17条の「忘れられる権利」やデータ最小化の原則と緊張関係にある。

EU除外は技術的な制約ではない。このサービスが現時点で欧州のプライバシー基準を満たしていないことを、OpenAI自身が事実上認めているのだ。

「自動保存」がデフォルトという設計思想

Libraryの最大の特徴は、ファイル保存がデフォルトで有効になっていることだ。ユーザーが明示的にオンにしたわけではない。アップロードした時点で、自動的にLibraryに格納される。

OpenAIの公式ドキュメントによれば、保存上限は1ユーザーあたり10GB、組織あたり100GB。1ファイルの上限は512MB、画像は20MBだ。チャットを削除してもLibrary内のファイルは残り、手動で削除しない限りアカウントに紐づき続ける。

さらに重要なのが、設定画面の「Improve the model for everyone」トグルの存在だ。これがオンの場合、アップロードしたファイルを含むコンテンツがモデルの改善に使用される可能性がある。オプトアウトは可能だが、デフォルトではオンだ。

「便利だから使う」と「データを差し出す」の境界線は、ここではほとんど見えない。OpenAIのセキュリティページにはSOC 2やISO 27001の取得実績が並ぶが、「モデル学習にコンテンツを使うかどうか」はユーザー側の設定に委ねられている。

Googleドライブにファイルを保存するとき、Googleがそのファイルで検索アルゴリズムを改良するとは誰も思わない。だがChatGPTでは、その前提を疑う必要がある。

クラウドストレージ化するChatGPT

冷静に見れば、LibraryはChatGPTを「会話ツール」から「個人データのハブ」へと変質させる一手だ。契約書のPDF、財務データのスプレッドシート、プロジェクトの画像――それらがOpenAIのサーバーに蓄積されていく。

削除を依頼しても、サーバーからの完全消去には最大30日かかる。なぜ即座に消せないのかについて、OpenAIは明確な説明をしていない。BleepingComputerは法的な理由の可能性を指摘している。

ニューヨーク・タイムズとの訴訟に絡む米裁判所の命令で、削除済みチャットの無期限保持が求められている現状もある。この30日という数字すら「最低保証」に過ぎないのかもしれない。


実務面での利点は確かにある

ChatGPT Libraryが解決する最大の課題は、チャットをまたいだファイルの再利用だ。これまでは新しいチャットを始めるたびに同じファイルを再アップロードする必要があり、「先週の会議資料を元に分析して」と言いたくても、ファイルは前のチャットに閉じ込められていた。

Libraryはこの摩擦を取り除く。「先週アップロードした予算のスプレッドシートを探して」と自然言語で依頼すれば、ChatGPTが保存ファイルから該当するものを引き出してくれる。一度に最大20ファイルを添付でき、対応フォーマットも拡充されている。

頻繁にファイルをやり取りするビジネスユーザーにとって、Library自体は待望の改善だ。問題は機能ではなく、その実装のされ方にある。

問いは「使うかどうか」ではなく「知っていたかどうか」

Library機能の本質的な問題は、機能そのものの是非ではない。過去にアップロードしたファイルがすでに保存されていたという事実を、ほとんどのユーザーが知らなかったことにある。

Googleドライブに保存するときは、自分がその行為を選んでいる。iCloudにバックアップするときも同様だ。しかしChatGPTのLibraryでは、「チャットに添付した」という行為が、いつの間にかクラウドストレージへの保存に変換されていた。

月額20ドルを払ってサービスを使い、さらにそのデータがモデル改善に使われる可能性がある。この構造に違和感を覚えるかどうかは、個人の価値観による。だが少なくとも、その構造を理解した上で使うべきだろう。

設定画面から「Improve the model for everyone」をオフにし、Libraryに保存されたファイルを定期的に確認する。それだけで、リスクは大幅に下がる。便利な道具は、仕組みを理解して使うからこそ道具でいられる。


#ChatGPT #OpenAI #Library #クラウドストレージ #GDPR #プライバシー #AI