Australia’s biggest celebration of women in business announces 2024 finalists
The 2024 Australian Women’s Small Business Champion Awards shortlist features a record number of more than 800 female small business trailblazers, now ...
Read moreThe 2024 Australian Women’s Small Business Champion Awards shortlist features a record number of more than 800 female small business trailblazers, now ...
Read moreIn the evolving landscape of customer service, businesses are constantly seeking robust and reliable solutions to enhance their support systems. ...
Read moreStarting August 26th, Australian employees will have a legislated right to “switch off” from work outside their normal working hours. ...
Read moreAsia’s venture funding scene, once a thriving hub of investment activity, is facing a stark downturn. The region experienced its ...
Read more特集Jul 15, 20241分 Generative AI 職場での無許可のAI利用は、企業のデータ、システム、ビジネス上の関係を危険にさらしている。ここでは、従業員のAIに対する好奇心を受け入れ可能な利用方法へと方向転換し、組織的な価値を生み出す方法を紹介する。 テクノロジー関連のものすべてに言えることだが、シャドーITも進化している。もはや、一部の従業員のニッチなニーズに対応するSaaSアプリや、営業が持ち歩き用の業務ファイルにアクセスするためにこっそり持ち込んだ個人のブラックベリーなどだけではない。今日のシャドウITは、従業員がIT部門に知られずに、あるいは許可を得ずにあらゆるAIツールを試すため、AIが関与している可能性が高くなっている。 データ保護ソフトウェアメーカー、サイバーヘイブンの調査によると、シャドーAIの量は驚くほど多い。同社の2024年春版AI導入とリスクに関する報告書によると、ChatGPTの業務利用の74%は企業以外のアカウント経由、Google Geminiの業務利用の94%は企業以外のアカウント経由、Bardの業務利用の96%は企業以外のアカウント経由となっている。その結果、従業員はIT部門が承認していないAIツールに、法的文書、人事データ、ソースコード、その他の機密性の高い企業情報を入力しているため、許可されていないAIが企業のデータを食い荒らしている。 ガートナー社の著名な副社長アナリスト、アルン・チャンドラセカラン氏は、シャドウAIは事実上避けられないと語る。従業員はAIツールに興味津々で、忙しい仕事を軽減し生産性を向上させる方法として捉えている。また、テクノロジーに取って代わられるのを防ぐ方法として、その使い方をマスターしたいと考える者もいる。さらに、個人的な作業でAIに慣れているため、仕事でもそのテクノロジーを使いたいと考える者もいる。 何が問題なのか? これらの理由は理にかなっているように見えるが、シャドウAIが組織にもたらすリスクを正当化するものではないと、チャンドラセカラン氏は認める。「ほとんどの組織は、リスクが非常に大きいことから、シャドウAIを回避したがっている」と彼は言う。 例えば、機密データが流出する可能性が高いことや、独自のデータがAIモデルの学習(特にそれがオープンソースの場合)を助け、同じモデルを使用する競合他社を助ける可能性があることをチャンドラセカラン氏は指摘する。 同時に、多くの労働者はAIを効果的に活用するために必要なスキルが不足しており、リスクレベルをさらに高めている。AIモデルに適切なデータを入力して質の高いアウトプットを生成したり、最適なアウトプットを生成するためにモデルに適切なインプットを与えたり、アウトプットの正確性を検証したりするスキルが十分でない可能性がある。例えば、生成型AIを使ってコンピューターコードを作成することはできるが、コードの構文やロジックを理解していなければ、そのコードの問題点を効果的にチェックすることはできない。「これは非常に有害な結果をもたらす可能性がある」とチャンドラセカラン氏は言う。 一方、シャドウAIは労働力の混乱を引き起こす可能性がある、とチャンドラセカラン氏は言う。AIを密かに利用している労働者は、そのようなツールを導入していない従業員よりも不公平な優位性を持つ可能性があるからだ。「まだ支配的な傾向ではありませんが、組織リーダーとの議論の中で懸念事項として挙がっています」とチャンドラセカラン氏は言う。 シャドウAIは法的問題を引き起こす可能性もある。例えば、許可されていないAIが他人の知的財産に不正にアクセスし、組織が侵害の責任を負うことになるかもしれない。また、差別禁止法や社内規定に違反する偏った結果をもたらす可能性もある。あるいは、顧客やクライアントに誤った情報を提供してしまう可能性もある。これらのシナリオはすべて、組織に法的責任を生じさせ、その結果生じる違反や損害の責任を負わせる可能性がある。 実際、AIシステムが故障した場合、企業はすでにその責任を負わなければならない状況に陥っている。その一例として、2024年2月、カナダの法廷は、エア・カナダが自社のAIチャットボットが消費者に提供した誤った情報について責任を負うべきであると判決を下した。 このケースのチャットボットは、ITリーダーが言うように、公式のテクノロジーにリスクが十分に高いことを示すだけであり、シャドウITを放置してさらにリスクを増やす必要があるのか? 災害を未然に防ぐ10の方法 かつてのシャドウITがそうであったように、承認されていないAIテクノロジーの使用や、その使用がもたらす可能性のある結果を防ぐための、一度きりの解決策など存在しない。しかし、CIOは、承認されていないAIの使用を排除し、災害を予防し、万が一問題が発生した場合に被害を最小限に抑えるために、さまざまな戦略を採用することができる。ここでは、ITリーダーがCIOが行うべき10の方法を紹介する。 ...
Read moreIn the realm of Indian cricket, few players have seen the rise and evolution of Virat Kohli and Rohit Sharma ...
Read moreIndia aims to surpass their previous Olympic medal count as they take the center stage at the Paris Games, beginning ...
Read moreFormer Indian cricketer Harbhajan Singh issued an apology after a video featuring him and fellow Indian cricket champions received criticism ...
Read moreAfter lifting the T20 World Cup 2024 for Team India, Hardik Pandya returned to his hometown in Vadodara on Monday ...
Read moreEngland skipper Harry Kane said that the Three Lions failed to 'keep the same intensity and pressure' against Spain in ...
Read more© 2023 earth-news.info
..................................%%%...*...........................................$$$$$$$$$$$$$$$$$$$$--------------------.....