─2023年10月号─「「チャットGPT、メールを書いてください...」:AIは職場の対立にどのように役立ちますか?②」

Date: August 9th, 2023 | BY Denise Montgomery

 

(前号よりつづく)

 

つまり、チャットGPTにL.E.T.スキルがあるかどうかを確認しています。

 

そのことを念頭に置いて、私は一般的な職場のシナリオを作成し、チャットGPT 3.5(OpenAIツールの最新の無料リリース)にいくつかのコミュニケーション・タスクを支援するように依頼しました。

 

まず、注意点:

 

(2023年8月時点において)現存する多くのAIツールと同様に、チャットGPTは、明るく、熱心、かつ社交的であり、事実に関しては少しだけ自信過剰ではあるものの驚くほど有能で優秀な学生のようなものです。多くの場合、回答として提供しようとするリンクが完全な捏造ということもあり、信頼できる生の、あるいは最新のデータを提供することには今のところ向いていません。この大規模な言語モデルに複雑な問題の解決を依頼する場合は、その仮定と基礎データを確認する準備をしておきましょう。

興味深い最近の研究では、AIが最終的に「自壊する」もしくは「狂う」可能性があることを発見しました(研究の著者は、この現象をモデル・オートファジー障害と呼びました–言い換えるならば、人工的に作成されたトレーニング・モデルが「自分自身を食べた」結果と言えるでしょう)。これは、現在利用可能なAIツールには直接関係ありませんが、将来的に懸念事項になる可能性はあります。

 

もしみなさんがAIツールを利用された場合は、何を質問されたかやAIの動作状況をぜひ私どもにお知らせください。

 

<締め切りに間に合わなかったことに関する対決的メール(同僚から同僚へ)>

 

「プロンプト」は、アウトプットを得るためにAIツールに入力するテキストです。AIジェネレーターの視覚的なプロンプトは、説得力のある写真素材、絵画、コンセプト・イラストなどを作成できます。

 

チャットGPTは、建設的なコミュニケーション能力をテストするために簡単な英語でプロンプトを入力されました。

 

最初のプロンプトでは、送信者の感情状態に関する無関係な詳細がプロンプトに含まれており、直接的なコミュニケーションの範囲外で叱責も含まれていました (これは、職場における「ため息を吐きたくなる瞬間」の現実的なシミュレーションでした)。

 

プロンプト内のこれらのかく乱要素は、トレーニング言語モデルがプロフェッショナルな応答の中で関連情報と無関係な情報を分類できるかどうかをテストしました。

 

(次号につづく)

プログラムに関するご質問など、お気軽にお問い合わせください。

セカンド・ウィンド株式会社

〒166-0002 東京都杉並区高円寺北2-8-10-601 エスタシオン高円寺