- 
      
      リコーJ、社員をAI専門家に育成=25年度は300人、業務改善提案を強化 2024/11/20 
- 
      
      印メディア、オープンAI提訴=著作権侵害で賠償請求 2024/11/20 
- 
      
      生成AI、iPhoneでも提供=「ジェミニ」アプリ、日本語も可能―米グーグル 2024/11/15 
- 
      
      世界の従業員向け生成AI人材育成フレームワークを構築=NTTデータ〔BW〕 2024/11/07 
- 
      
      AIによる知財侵害防止へ=26年の法改正視野―特許庁 2024/11/06 
- 
      
      FIXER、総務省と生成AIの実証実験 2024/11/05 
- 
      
      生成AI検索、本格スタート=チャットGPT、まずは有料版から―米オープンAI 2024/11/01 
- 
      
        企業を変えるBCP 自社開発できるAI活用の対策本部支援システム 災害対応に従事する人材の確保とスキルの向上が叫ばれるも、現実的に余裕がないなかで、担当者の負荷は増す一方です。そこで脚光を浴びているのが、人の代わりに働くAIの活用。最終的な判断は人間が行うとしても、前段階でAIに働いてもらえばかなり助かります。今回は生成AIを活用した対策本部支援システムを自社で開発する可能性を考えます。 2024/10/18 
- 
      
        AIをめぐるセキュリティの攻防ーその現在地と検討ポイント 本勉強会では、AIに関する情報セキュリティに焦点を当て、その現在地と対応のポイントをISF(Information Security Forum)の日本窓口を務める小原浩之氏に解説していただきます。 2024/09/20 
- 
      
        デジタルリスクの地平線 ― 国際的・業際的企業コミュニティの最前線 第49回 ディープフェイクの仮面の下 ディープフェイクという「なりすまし」を用いた犯罪が、日本でもうなぎ登りで、詐欺被害のリスクが高まっています。AIは日本語も達者になり、いよいよ特殊言語に守られていた環境のバリアが崩れ落ち、動画や音声の偽装による騙しの手口が本格化したということでしょう。ちょっとした詐欺のセンスと、情報収集のコツさえ分かってしまえば、誰だって(道を外して、サイバー犯罪者になることを何とも思わなければ)できてしまうのです。 2024/09/11 
- 
      
        EU AI法が正式発効:AIの信頼性に関わる国際動向と、いま企業に求められる対応 本勉強会では、AIに関する国際動向を踏まえながら、企業がビジネスにAIを利用するうえでのリスクとその対策例をわかりやすく解説します。 2024/08/06 
- 
      
      生成 AI を活用している企業 17.3%=リスク対応については「部門は決まっていない」が最多 2024/08/02 
- 
      
        デジタルリスクの地平線 ― 国際的・業際的企業コミュニティの最前線 第48回 AIセキュリティ秘密箱 AIというもの自体、まだまだ技術面も実務での受け入れ方も曖昧なところも多く、今後とも研究されていくテーマであります。今回はAIリスクに対するセキュリティのアプローチについて、守るための秘密箱、あるいはそのからくりの現在地を確認してみようと思います。 2024/07/26 
- 
      
        デジタルリスクの地平線 ― 国際的・業際的企業コミュニティの最前線 第47回 AIは、反魂丹か安本丹か 2024/06/28 
- 
      
        先行者から学ぶESGコミュニケーション ディープフェイクの脅威に立ち向かう ディープフェイク技術の進化により、誰でも簡単に他人の声や映像を偽造できる時代が来ている。ひとつの偽映像でブランドに壊滅的な損害を与えることもできる。このような状況は、今夜あなたの会社にも起こりうる。 2024/06/15 
- 
      
        非IT部門も知っておきたいサイバー攻撃の最新動向と企業の経営リスク AIそして創造と破壊 AI技術の急速な発展は芸術から選挙まで、さまざまな活動に創造と破壊をもたらしている。AIと人間の共生に向けた重要な課題を多角的に考察し、その先にある未来について探る。 2024/06/11 
- 
      
        デジタルリスクの地平線 ― 国際的・業際的企業コミュニティの最前線 第44回 テクノロジーの辻風は吉(後編) 前回に続き、ピーター・ヒンセンさんのお話を伺っていきます。COVIDという特殊な時期の終わりに突如現れたNever Normal時代。フェニックスのように蘇り、舞い上がっていくにはどうすればよいでしょうか? 2024/04/03 
- 
      
        デジタルリスクの地平線 ― 国際的・業際的企業コミュニティの最前線 第43回 テクノロジーの辻風は吉(前編) データ、コンピュータ、通信などに関する関連法令や規制は世界中で増えるばかりで、まるで津波のように押し寄せては、企業各社に時間的、金銭的な負荷を増やしています。加えて、この一年半ほどは、規制もどこ吹く風とばかりに、生成AIという新しいテクノロジーの辻風が吹き荒れています。 2024/03/23 
- 
      
        非IT部門も知っておきたいサイバー攻撃の最新動向と企業の経営リスク ビジネスにおけるAIリスク AIの進化はビジネスのあり方を根底から変えつつあるが、使い方を誤れば企業が重大なリスクに晒される可能性もある。潜在的に抱える可能性のあるリスクと注意すべきポイント、そして法規制の動向について見ていく。 2024/03/07 
- 
      
        デジタルリスクの地平線 ― 国際的・業際的企業コミュニティの最前線 第42回 リスクランドスケープの俯瞰 AI、さらには量子コンピュータなどの新しいテクノロジーが社会に影響を与え始めています。サイバーセキュリティ部門としては、これらのテクノロジーの本質的理解や社会情勢も視野に入れたうえで、会社のリスクテイク判断に資することが必要になってきます。 2024/02/14 
- 
      
        海外のレジリエンス調査研究ナナメ読み! 第242回:事業継続関係者から見た2024年の展望 今回紹介するのは、BCMの専門家や実務者による非営利団体であるBCIが2023年12月に発表した報告書。2023年がどのような年だったかを総括し、翌年がどのような年になりそうかを展望するような内容となっている。 2024/01/31 
- 
      
        セキュアな環境での生成AI利用を支援 ラックは、企業が組織内のデータを外部に送信せず、セキュリティを確保した上で生成AIの導入を支援する「生成AI社内活用導入支援サービス」を提供する。米マイクロソフト社が提供するクラウドサービス「Microsoft Azure」において、AIを利用できるようにするサービス「Azure OpenAI Service」を使い、組織内のプライベート環境でのみChatGPTを活用できるセキュアな情報分析プラットフォームの導入を支援するもの。 2023/12/19 
- 
      
        いま向き合うべき「AIガバナンス」の論点~生成AI時代のリスク管理の新常識 本勉強会では、各国のAIガバナンスの動向にも詳しい、Robust Intelligenceの日本事業責任者である平田泰一氏に、AIリスクへの向き合い方について、最新の事例なども交えて解説していただきます。 2023/11/30 
- 
      
        再考・日本の危機管理-いま何が課題か 生成AIガイドラインに欠かせないもの 生成AI利活用ガイドラインは必要不可欠ですが、それはあくまで一般的な指針です。参考にしつつも、自社でリスク想定を行い、独自の基準を設ける必要があるでしょう。入力データをすべて精査できないAIは、人による出力の確認が必須ですから、チェックポイントの把握は特に重要。AIリスクを極力低減し、利活用を拡大する方策を考えます。 2023/09/28 
- 
      
        テクノロジー&リスクマネジメントフォーラム2023 AI、DXなどの新たな技術がもたらす機会と経営リスクについて、第一線で活躍する実践者から解説していただくとともに、課題解決につながるソリューションを徹底紹介します。 2023/09/26 




 
           
           
           
           
           
           
           
           
          
 
             
             
            
 
             
             
             
            ![2022年下半期リスクマネジメント・BCP事例集[永久保存版]](https://risk.ismcdn.jp/mwimgs/8/2/160wm/img_8265ba4dd7d348cb1445778f13da5c6a149038.png) 
             
             
             
             
             
            