エンジニアにとって、AIエディタは開発効率を劇的に変える魔法のようなツールです。しかし、その魔法の裏側で「自分の書いた秘密のコードが勝手にAIの学習に使われていないか」と不安に思うのは、プロとして当然の感覚と言えるでしょう。
Googleが提供する「Antigravity」も、強力なAIモデルであるGeminiを基盤としています。便利な一方で、設定を正しく理解していないと、意図せず機密情報をGoogleのサーバーに学習させてしまうリスクがあります。この記事では、あなたのソースコードを守るための具体的なプライバシー設定と、安全な運用ルールを詳しく解説します。
Antigravityのプライバシーとコードの扱われ方
Antigravityを使う上で、まず「データがどこへ行き、どのように処理されるのか」という全体像を把握することが大切です。AIエディタは、あなたの指示に答えるためにコードの一部をクラウド上のサーバーへ送信します。
この章では、データの送信先、保存期間、そして「学習」という言葉が具体的に何を指しているのかを整理します。まずは、現状のデータ取り扱いの基本ルールを理解しましょう。
AIに送信されるデータと保存される場所
Antigravityでエージェント(AI)に指示を出すと、関連するソースコードやファイル構造の情報がGoogleのサーバーへ送信されます。これはAIがコードの文脈を理解するために不可欠なプロセスです。送信されたデータは、回答を生成するために一時的にメモリ上に展開され、処理が行われます。
ただし、送信されたすべてのデータが永久に保存されるわけではありません。通常、セッションが終了すれば一時的なデータは消去されますが、ユーザーの利便性のために「チャット履歴」としてアカウントに紐づけられて保存される場合があります。どのデータが残り、どれが消えるのかを意識することが、セキュリティの第一歩です。
「学習に使われる」とは具体的に何を指すか?
「学習に使われる」という言葉は、私たちのコードが将来のAIモデルをより賢くするための「訓練データ」として再利用されることを意味します。これが許可されていると、あなたの書いた独自のアルゴリズムや機密性の高いロジックが、他人の回答の中に断片的に現れてしまう可能性がゼロではありません。
Googleは、すべてのユーザーのコードを無差別に学習しているわけではありません。しかし、初期設定やプランによっては「サービスの改善」という名目で利用される余地があります。この「モデルの改善」へのデータ提供を拒否すること(オプトアウト)が、エンジニアにとって最も重要な設定項目となります。
個人プランと法人プランで規約はどう違う?
利用するプランによって、プライバシーの保護レベルは大きく異なります。一般的に、個人向けの無料プランや安価な有料プランでは、ユーザーが明示的に設定を変えない限り、データがサービス改善に利用される設定になっていることが多いのが実情です。
対照的に、法人向けの「Gemini Enterprise」などのライセンスを通じた利用では、最初から「入力データは学習に使用しない」ことが規約で保証されています。個人プロジェクトか、企業の業務かによって、求めるべきセキュリティレベルが異なるため、以下の表で違いを確認しておきましょう。
| 項目 | 個人向けプラン | 法人向けプラン |
| 学習への利用 | 設定次第で利用される | 原則として利用されない |
| データの所有権 | ユーザーに帰属 | 企業・ユーザーに帰属 |
| 管理者による統制 | 個人の責任 | 管理者が一括制限可能 |
| 機密保持の保証 | 一般的な規約 | 法的拘束力の強い規約 |
ソースコードの学習を防ぐ!具体的な設定手順
データの扱われ方がわかったところで、次は「学習させない」ための具体的な操作に移りましょう。Antigravityの設定画面と、Googleアカウント側の設定の両方を確認する必要があります。
設定を一つ変えるだけで、セキュリティリスクは大幅に抑えられます。手順を追って、今すぐ自分の環境をチェックしてみてください。
設定画面から「AI機能の改善に協力」をオフにする
まずはエディタ内の設定を修正しましょう。Antigravityの「Settings(設定)」を開き、プライバシーやAIに関するセクションを探します。そこにある「Help improve AI features(AI機能の改善に協力する)」といった内容のチェックボックスをオフにします。
この項目をオフにすることで、「生成された回答や送信されたコードの断片を、モデルの訓練用データとして再利用すること」を拒否できます。これを無効にしても、AIエージェントの機能自体が使えなくなるわけではないので、安心してオフにして問題ありません。
Googleアカウントの「Geminiアクティビティ」を無効にする
エディタ側の設定に加えて、Googleアカウント全体の設定も重要です。ブラウザからGoogleアカウントの「データとプライバシー」を開き、「Gemini アプリのアクティビティ」という項目を確認してください。これを「オフ」に設定することで、AIとのやり取りがアカウントに保存されなくなります。
アクティビティが保存されていると、Googleのレビュー担当者が(匿名化された状態で)内容を確認し、モデルの改善に役立てることがあります。これを防ぐためには、履歴の保存自体を止めてしまうのが最も確実です。過去の履歴がすでに残っている場合は、この画面から一括削除することも可能です。
チャット履歴を保存させないための設定変更
エージェントとの対話履歴をエディタ内に残したくない場合は、個別のセッション設定で「履歴を保存しない」モードを選択しましょう。特定のプロジェクトだけで機密性の高い作業をする場合、その時だけ履歴をオフにする使い分けが有効です。
履歴を保存しない設定にすると、エディタを閉じた瞬間にその対話データは消去されます。後から指示を見返せなくなる不便さはありますが、情報の流出リスクを最小限に抑えたい場面では非常に強力な防御策となります。
- 設定から改善協力をオフ
- アカウントの履歴を無効
- 履歴保存オフで作業
特定のファイルをAIに見せない!除外設定の方法
プロジェクトの中には、AIに絶対に読み込ませたくない「秘中の秘」とも言えるファイルがあるはずです。Antigravityには、特定の見られたくない場所をAIの視界から隠す仕組みがあります。
エージェントがプロジェクト全体をスキャンする際、どのファイルを無視すべきかを明示的に指定することで、さらなる安全性を確保しましょう。
設定ファイルでエージェントのアクセスを制限する
プロジェクトのルートディレクトリに、AI除外専用の設定ファイル(.antigravityignore など、エディタが指定する名称)を作成しましょう。これは .gitignore と同じ書き方で、AIに触れさせたくないフォルダやファイルパスを指定できるものです。
例えば、顧客データが含まれるCSVファイルや、独自のアルゴリズムが書かれたコアなロジックファイルを指定しておけば、AIエージェントはその存在を無視して作業を進めます。エージェントが「勝手にファイルを読み込んで外部に送信する」のを防ぐ物理的な障壁として機能します。
機密情報が含まれるフォルダを隔離して管理する
設定ファイルでの制限に加え、ディレクトリ構造自体を工夫するのも賢い方法です。機密性の高いファイルは、Antigravityで開いているワークスペース(フォルダ)の外に置くか、完全に隔離したサブディレクトリにまとめましょう。
AIエージェントは基本的に、今開いているフォルダの中身しか見ることができません。重要な設定値や秘密鍵などは、エディタで直接開かない場所に置くという原始的なルールを徹底するだけで、誤送信のリスクは劇的に下がります。
AIに読み込ませる「コンテキスト」を最小限に絞る
指示を出す際、AIに「プロジェクトのすべて」を読み込ませるのではなく、必要な範囲だけに限定しましょう。Antigravityの指示欄で「@file」などのシンボルを使い、特定のファイルだけを対象に指定することで、無関係なコードが送信されるのを防げます。
AIが賢くなると、つい何でもお任せしたくなりますが、送信するデータ量が増えるほどリスクも増えます。常に「このタスクにこのファイルは本当に必要か?」を自問自答し、最小限のコンテキストで対話する習慣をつけましょう。
| 設定方法 | 効果 | メリット |
| Ignoreファイル | 指定したファイルを無視 | 自動で漏れを防げる |
| ディレクトリ隔離 | 物理的に参照させない | 設定ミスが起きにくい |
| コンテキスト限定 | 送信データを最小化 | 通信量とリスクを抑制 |
Google AI Pro(有料版)ならセキュリティは万全か?
月額料金を支払って「Google AI Pro」を使っている場合、無料版よりも高いセキュリティを期待したくなるものです。しかし、料金を払っているからといって、無条件に「学習なし」の状態になっているとは限りません。
有料プランにおけるデータの扱いと、さらに上の「法人プラン」を検討すべき基準について詳しく解説します。
有料プランでもオプトアウト設定が必要な理由
意外かもしれませんが、個人の有料プラン(AI ProやUltra)であっても、デフォルトの設定では「サービスの改善」への協力がオンになっている場合があります。Googleにとって、有料ユーザーの質の高いコードはAIを育てるための貴重な資料だからです。
「お金を払っているから安全だ」と思い込むのは禁物です。有料プランに切り替えた直後こそ、改めて設定画面を開き、オプトアウト設定(学習への利用拒否)が正しく引き継がれているか、あるいは新しく追加されていないかを確認しましょう。
データの残存期間について知っておく
有料プランでは、無料プランよりもデータの保持期間や処理の優先順位において優遇されることがありますが、それでもデータがクラウド上で処理される事実に変わりはありません。送信されたデータがバックアップとして一時的に保存される期間なども存在します。
Googleのプライバシーポリシーには、データがどのように保護され、いつ削除されるかが明記されています。一度は目を通し、自分のプロジェクトがその保護レベルで許容できるものかどうかを判断する材料にしてください。
企業導入ならGemini Enterpriseを選ぶべき理由
もしあなたが会社の業務でAntigravityを使おうとしているなら、個人のProプランではなく、法人向けの「Gemini Enterprise」などの導入を強くおすすめします。法人プランは契約の時点で「入力されたデータはモデルの訓練に使わない」という強い約束が交わされます。
また、管理者がメンバー全員のプライバシー設定を一括で管理できるため、社員の誰かが設定を忘れてコードを流出させてしまうといった事故を防げます。組織として責任を持ってAIを使うのであれば、法人プランへの投資は必須と言えるでしょう。
業務利用で損をしないためのセキュリティチェック
会社で新しいツールを導入する際、セキュリティ担当者からチェックを求められることも多いはずです。Antigravityを安心して仕事に投入するための確認ポイントを整理しました。
単に設定を変えるだけでなく、客観的な基準で安全性を評価することで、トラブルを未然に防ぎましょう。
自社のセキュリティポリシーと照らし合わせる
まずは、自分の会社の「クラウドサービス利用規定」を読み直しましょう。多くの会社では「ソースコードを外部のクラウドにアップロードしてはならない」というルールがあります。Antigravityがこのルールに抵触しないか、あるいは例外として認められる条件は何かを確認してください。
オプトアウト設定を徹底すれば許可されるのか、それとも法人契約が必須なのか。ルールを無視して使い始めると、後で大きな問題になりかねません。事前に上司やセキュリティ担当者に相談し、公認のツールとして使う道を探るのが正解です。
データの保存場所や暗号化の状況を確認する
データがどこの国のサーバーで処理され、どのように暗号化されているかも重要な指標です。Googleのインフラは世界最高水準の暗号化技術(TLSなど)を用いており、通信の安全性は非常に高いと言えます。
ただし、特定の国にデータを置いてはいけないという業界特有の制約(金融や官公庁など)がある場合は注意が必要です。Googleの透明性レポートなどを確認し、データの物理的な場所についても把握しておくと、社内への説明がスムーズになります。
第三者機関によるセキュリティ認証の有無
Googleの各種サービスは、SOC2やISO 27001といった国際的なセキュリティ認証を数多く取得しています。これは、第三者の厳しい目がデータの取り扱いを常にチェックしている証拠です。
こうした認証の存在は、Antigravityが単なる「便利なツール」ではなく、プロフェッショナルな「信頼できるインフラ」の上で動いていることを示しています。セキュリティチェックシートの記入が必要な際は、これらの認証情報を積極的に活用しましょう。
万が一機密コードを送信してしまったときの対処
気をつけていても、うっかり機密情報が含まれたファイルを読み込ませてしまうことはあります。そんな時に焦って放置するのが一番の悪手です。
もしもの時に、被害を最小限に食い止めるための具体的なリカバリー手順を解説します。
過去のエージェント履歴を完全に削除する
機密情報を送信してしまったことに気づいたら、すぐに該当するエージェントのチャット履歴を削除しましょう。Antigravityの「MissionControl」や履歴一覧から、ゴミ箱アイコンをクリックしてデータを消去します。
エディタ側で履歴を消せば、少なくとも今後の作業でその情報が再びAIの視界に入ることはなくなります。まずは「目の前のデータ」を消すことが最優先です。
送信済みのキャッシュをリセットする手順
AIエージェントは、作業をスムーズにするために一度読み込んだ情報をメモリ(キャッシュ)に保持していることがあります。履歴を消すだけでなく、エディタ自体を一度再起動するか、新しいプロジェクトとして開き直すのが安全です。
また、エージェントの設定リセット機能がある場合は、それを使って「記憶」をまっさらな状態に戻しましょう。これにより、一時的なメモリ上に残った機密情報も確実にパージされます。
Googleアカウント側に残ったアクティビティを消す
最後に、WebブラウザからGoogleアカウントの「マイアクティビティ」にアクセスし、Geminiに関連する履歴が残っていないか確認してください。もし機密情報を含むやり取りが残っていれば、個別に削除ボタンを押して消去します。
Google側のサーバーからもデータが消えるまでには少し時間がかかることがありますが、削除リクエストを出すことがユーザーにできる最大の防御です。
- エージェント履歴を即削除
- エディタを再起動
- アカウント側のアクティビティを消去
安心してAntigravityを使うための運用ルール
設定を完璧にしたとしても、使い方が雑であればリスクは残ります。AIと付き合う上での「人間側のマナー」を守ることで、さらに鉄壁の守りを築きましょう。
最後に、今日から実践できる3つの運用ルールを提案します。
APIキーやパスワードをコードに直接書かない
これはAIを使うかどうかにかかわらず基本中の基本ですが、環境変数や .env ファイルを活用し、ソースコード自体には機密情報を一切残さないようにしましょう。AIはコード全体を読み取るため、コメントアウトしてあるパスワードも見逃しません。
環境変数ファイル(.env)は、最初から .antigravityignore に登録して、AIが決して触れないように設定しておくのがプロの鉄則です。
プロンプトに具体的な機密情報を入れない
AIへの指示を出す際にも注意が必要です。「〇〇社のサーバーにある××というDBのパスワードを使って〜」といった具体的な固有名詞や機密情報をプロンプトに含めてはいけません。
指示を出すときは「あるデータベースの接続情報を環境変数から読み込んで〜」というように、抽象的な表現を使いましょう。AIは抽象的な指示でも文脈から正しく理解してくれます。
定期的にプライバシー設定を見直す
ツールのアップデートにより、新しい設定項目が増えたり、デフォルト値が変わったりすることがあります。月に一度は設定画面を開き、自分のプライバシー設定が意図した通りになっているかを確認しましょう。
「一度設定したから大丈夫」と過信せず、常に自分のデータがどう扱われているかに敏感でいることが、AI時代を賢く生き抜くエンジニアの条件です。
まとめ:設定次第でAntigravityは安全な相棒になる
Antigravityは、正しく設定を行えば、あなたの機密情報を守りながら最高のパフォーマンスを発揮してくれるツールです。
- 学習の拒否:設定画面とGoogleアカウントの両方で「改善への協力」をオフにする。
- 物理的な除外:設定ファイルを使って、AIに見せたくないファイルを指定する。
- プランの選択:業務で使うなら、より守りの堅い法人プランを検討する。
セキュリティへの不安を理由に、この便利なツールを使わないのは非常にもったいないことです。まずは今回紹介した設定を一つずつ確認し、安全を確保した上で、AIによる爆速の開発体験を楽しんでください。

