DigiCertが、現実の問題を解決するために、デジタルトラストの確立、管理、拡大をどのように支援しているかをご覧ください。
世界のIT・情報セキュリティリーダーたちが、デジタル技術の信頼性を欠いたセキュリティはセキュリティではないと考えている理由とは?
2023年8月15日よりCertCentralのサインインではユーザ名とパスワードのほかにワンタイムパスワード(OTP)もしくはクライアント証明書の二要素認証による提示が必要となりました。 設定等についてはこちらのKnowledgeを参照ください。
ここ数か月というもの、ChatGPT に代表される AI ツールの普及に伴って、AI や機械学習の利用が増えていることが実感されます。こうしたツールは、コンセプトも刺激的ですし、時間を節約しながらリサーチを簡略できるうえ、24 時間 365 日いつでも、依頼したとおりのことを実行すると考えられています。
しかし、この新しい AI ツールには新たな問題があります。何が正しいかをどう識別すればよいのでしょうか。その出力に対する信頼はどう確立できるでしょうか。
デジタルトラストとは、個人や企業がデジタルの世界に残す自身のフットプリントの安全性を確保しながらオンラインでやり取りできるようにすることです。そのデジタルトラストのリーディングプロバイダーとして、デジサートは ChatGPT に対する懸念を認識し、AI 業界が信頼とセキュリティの向上を目指せるよう前向きに検討しています。この記事では、そうした懸念のいくつかを取り上げ、AI に対する信頼をどう確立できるかを詳しく検証していきます。
ChatGPT はユーザーに正確な情報を提供するよう設計されていますが、どんな技術もそうであるように無謬ではありません。ChatGPT が誤ることもあります。バイアスがかかりやすく、2021 年以降の情報は限定されているうえに、セキュリティやプライバシーに懸念があって、情報を捏造することさえあるのですが、一部の問題についてはその限界を自ら認識しています。
使用する際の課題や懸念の上位は何かを尋ねたところ、ChatGPT は次のように回答してきました。
ChatGPT には数多くの利点がありますが、以下のように AI 言語モデルの使用に伴う課題もあります。
ChatGPT は、もっともらしく聞こえる情報をでっち上げたり、誤情報を拡散したりするということも知られています。しかし、ChatGPT が誤りを犯すのは、それ以前にインターネット上の情報が誤っていたためである場合もあります。
原因はどちらにもあります。ChatGPT は、訓練に使われた情報を利用していますが、その情報が不正確だったり古かったりする場合があります。そして、インターネットそのものが未検証の情報であふれており、それが誤解や完全な誤りの原因になっていることもあるのです。
最近、私は妻と一緒に車である美術館を訪れようとしました。スマートフォンの情報では開いているということでしたが、シーズンオフで閉まっていました。このように誤った情報があると、時間と費用、労力の無駄になることもあって、困らされますし、危険が伴うことさえあるかもしれません。そのうえ、悪意をもった者にそれを悪用されることもあります。
どんな技術が発達するときでも同じように、AI は私たちの暮らしや仕事を楽にしてくれる反面、攻撃者の仕事も楽にするものです。当然ながら、詐欺やフィッシングメッセージの作成に AI が使われるケースも出てきています。なかには、詐欺師が AI を使い、家族が困っているように思わせた最近の例のように、かなりの説得力を持つものもあります。ChatGPT の利用規約では、詐欺に直接こそ言及していませんが、「人の権利を侵害、濫用する、または権利に違反する」いかなる目的に使用することも制限されています。それでも、悪意をもった者が ChatGPT などの AI ツールを使って詐欺的な、さらには攻撃的な内容を書き込むことまでは止められません。したがって、オンラインでやり取りするときには慎重になり、フィッシングを発見、回避、報告する方法を学ぶことをお勧めします。
ChatGPT には、プライバシーの問題もあります。ChatGPT と共有した情報は、すべて保存されます。機密性の高い自社独自のデータやコードをオンラインで共有しないのと同じように、AI とも共有すべきではありません。AI はそれも保存し、次の学習に使用するからです。機密情報を AI と共有してしまい、別のユーザーがその情報について質問したとき、自分が共有したばかりにその情報にアクセスできるようになっていたと想像してみてください。公開できない情報は、ChatGPT とも共有するべきではありません。一方、事業主のほうでも、ChatGPT をプライバシーを保って安全に使う方法についてのトレーニングやガイダンスを実施する必要があります。
AI に対する信頼を確立する方法が、独立の第三者による検証です。独立の第三者による情報の検証によって信頼を確立するうえでは、認証局(CA)が重要な役割を果たします。CA は、他の組織とその情報の真正性を検証する組織であり、その真正性がオンラインの取引や通信の保護に利用されています。特に知られている例はドメイン所有権や法的アイデンティティの検証ですが、そのような情報に関して独立の第三者による検証を制限する技術的理由はありません。
電子証明書がその主張どおりのエンティティに属していることを検証するものなので、CA は機密情報が保護されていること、ユーザーが使用するウェブサイトやサービスを信頼できることを保証できます。しかし、CA はそれ以外の情報、たとえば事業の登録情報、ドメイン所有権、法的地位なども検証できます。新しい公開鍵基盤(PKI)の取り組みの多くでは、職業上の肩書き、デジタル鍵の生成場所と生成方法、商標による画像の保護の有無など、検証可能な他の属性にまでデジタルトラストを拡大しようとしています。
したがって、有益であるためには情報が正確でなければなりません。最も良いのは、CA などの組織によって独立して検証された情報です。確かに ChatGPT やインターネットは、情報を探すときに便利なツールですが、それだけに頼るべきではありません。テクノロジーと独立の第三者による検証を組み合わせれば、私たちが利用する情報の信頼性を確認することができます。
目下のところ、AI はどちらかというと発展途上です。しかし、AI 産業が成熟していけば、悪意のある目的での AI の使用に対する規制も強化されるだろうと予測されます。現在 IoT やソフトウェア開発などの分野で規制強化が進んでいるのと同じ状況です。将来的には、AI が出力する内容が真実であることを証明するために、電子証明書などの検証ソリューションが使われるようになっても不思議ではありません。PKI は、デバイス、ユーザー、サーバー、ソフトウェア、コンテンツなど、数多くのユースケースに適用され、デジタルトラストを確立してきた実証済みの技術です。AI もそうなっていくはずです。
© 2024 DigiCert, Inc. All rights reserved.
リーガルリポジトリ Webtrust 監査 利用条件 プライバシーポリシー アクセシビリティ Cookie 設定 プライバシーリクエストフォーム