はじめに
ChatGPTやGemini、Copilotといった「生成AI」を仕事で使う会社が一気に増えています。資料づくりや文章作成がぐっと楽になる一方で、今までのウイルス対策ソフトだけでは防げない、新しいタイプの危険も出てきました。この記事では、Web制作とサーバ管理を専門にしているバンブーハウスの視点から、中小企業の経営者やWeb担当の方に知っておいてほしい「AIを使うことで起きうるトラブル」と、その防ぎ方をやさしく解説します。ポイントは次の通りです。
最終更新日
一番身近で起きやすいのが、これです。
たとえば「顧客リストを分析して」「未公開の会議メモをまとめて」と無料のAIに頼んだ場合、その内容はAIが今後の回答を作るための「教材」として取り込まれることがあります。
その結果、まったく無関係の人がAIに質問したときに、御社の機密情報が答えの中に出てきてしまう——そんな事故が起こりうるのです。
最近は、Webサイトのプログラムまでチェックも検証もせずにAIに書かせるケースが増えています。
ただ、AIは「とりあえず動くプログラム」を作るのは得意ですが、「安全性が担保されたプログラム」を作るとは限りません。
専門家のチェックを通さないままAIのコードを使うと、サイトに「外部から侵入されやすい弱点」が残ったまま公開されてしまう恐れがあります。具体的にはデータベースの中身を盗み見られたり、不正な命令を埋め込まれたりするタイプの代表的な弱点です。
「動いているから大丈夫」と思い込まず、最終的には必ず専門家がプログラムの中身をチェックすることが欠かせません。
困ったことに、攻撃する側の悪い人たちもAIを使い始めています。
これまで詐欺メールは「日本語が不自然」「文章が変」といった違和感で見抜けていました。ところが今は、AIによってネイティブが書いたような完璧な日本語の詐欺メールが作られるようになっています。
さらに、取引先の担当者の声をAIで合成し、電話で本人になりすます「ディープフェイク詐欺」(AIで作った偽の音声・映像による詐欺)の被害も世界で報告されています。「なんとなく怪しいな」という個人の勘に頼るやり方は、もう通用しなくなりつつあります。
AIを「禁止する」のではなく、ルールを決めて安全に使うという考え方が大切です。
最低限、次の2点は徹底しましょう。
社員それぞれが勝手に好きなAIツールを使う状態(いわゆる「会社が把握していないツールが社内で使われている状態」)は、情報漏えいの大きな原因になります。
主要なAIサービスには、入力した内容をAIの学習に使わせないようにする設定や、企業向けの安全性が高いプラン(法人版・エンタープライズ版)が用意されています。業務で使うときは、こうした設定が有効になっているかを必ず確認してください。
AIが作った文章・画像・プログラムは、そのまま使わずに必ず人間が中身を確認する手順を入れましょう。
特にWebサイトの裏側で動くプログラムの修正は、ひとつ間違えるとセキュリティ事故に直結します。専門知識を持ったエンジニアによるチェックは、省略してはいけない工程です。
一律に禁止する必要はありませんが、注意は必要です。多くの無料AIは、初期設定のままだと「入力した内容がAIの学習に使われる」仕組みになっています。お客様の名簿や未公開の社内情報は絶対に入力しない、または学習をオフにする設定を必ず行う、といったルールを徹底したうえでお使いください。
ただ禁止すると、かえって隠れて使われるリスクが高まります。「使ってよいツール」と「やってはいけないこと」を明文化したガイドラインを作るのが現実的です。「社内データは入力しない」「AIの答えは必ず人間が真偽を確認する」など、基本ルールづくりから始めましょう。作成のサポートが必要な場合はご相談ください。
そのまま使うのはとても危険です。AIは「動くもの」を作るのは得意ですが、「安全に作られているもの」とは限りません。外部から侵入される弱点が残っている可能性があるため、必ず専門のエンジニアがチェックしてから実装してください。
ウイルスそのものは検知できる場合もありますが、AIが作る「自然で巧妙な詐欺メール」や「本物そっくりの偽サイトへの誘導」は、ウイルス対策ソフトだけでは防ぎきれないケースが増えています。ソフトに頼るだけでなく、社員への教育と、サーバ側でのなりすましメール対策の両方が必要です。
はい、可能です。バンブーハウスはWeb制作とサーバ管理の専門会社として、AIを使った機能の開発から、既存サイトの安全性チェックまで幅広く対応しています。「今のサイトが安全か知りたい」「AIを安全に業務に取り入れたい」という方は、お気軽にお問い合わせください。