Webサービス

  1. Read

    OpenAI、ChatGPTで画像分析機能を可能にするGPT-4Vを発表、マルチモーダルに。

    OpenAIは2023年9月25日(現地時間)、ユーザがアップロードした画像入力の解析する能力を持つ、最新の大規模言語モデル「GPT-4V」を発表しました。これは、従来のテキストベースのAIとは一歩進んだもので、画像を解析する能力を持つことが特徴です。 近年、AI研究として注目されているのが、言語だけでなく画像などの他のモダリティを取り入れたマルチモーダル(多モーダル)なAIの開発です。GPT-4Vは、このマルチモーダルAIの最新版として、テキストだけでなく画像入力も解析できる能力を持つことで、新しいタスクの解決やユーザ体験の拡大を目指しています。 OpenAIは、GPT-4Vのリリースにあたり、その安全性に関する詳細な分析を公開しています。これは、前モデルGPT-4の安全性に関する研究を基に、画像入力に特化した評価や対策が行われているとのこと。OpenAIは、ユーザーに安全で信頼性の高いAI体験を提供するための努力を続けており、GPT-4Vもその一環としてリリースされたと言えるでしょう。 今後のAIの進化とともに、テキストだけでなく、画像や他のモダリティを統合したマルチモーダルなAIの可能性がさらに広がることが期待されます。GPT-4Vの登場は、その新たなステップとして大きな注目を集めることでしょう。

  2. Read

    OpenAI、ChatGPTに音声と画像の機能を新たに搭載すると発表

    OpenAIは9月25日(現地時間)、同社のAIチャットボット、ChatGPTに新たに音声と画像の機能を搭載すると発表しました。この新機能によりユーザは、ChatGPTとチャットで操作できるだけでなく、音声で会話したり画像をアップロードし、その画像について会話することが可能になります。(OpenAI) この機能は今後2週間でChatGPT PlusおよびEnterpriseユーザに新機能が提供される予定で、音声での会話はChatGPTのiOSとAndroid向けのアプリで利用可能になり、画像に関しては全てのプラットフォームで利用できるようになるとしています。 ChatGPTに追加された新機能 音声対話機能(音声認識と発話機能) ユーザーはChatGPTとの間でリアルタイムの音声対話ができるようになりました。この際、ChatGPTからの応答はプロの声優との協力で作成されたもので、5つの異なる人間らしい声を選択できるとのことです。 OpenAIによると発話機能の実現には、テキストから人間らしい音声を生成する新しいテキスト読み上げモデルを活用しているといい、サンプル音声の数秒からリアルタイムで人間らしい音声を生成する能力があるそうです。 また、ユーザからの音声はOpenAIが提供するオープンソースの音声認識システムである「Whisper」を使用して、話された言葉をテキストに変換しているとのこと。 音声対話機能の活用例 OpenAIが紹介する活用例では「子どもの就寝前の話をリクエストしたり、夕食のテーブルでの議論を解決したりできます」とのことでした。 活用の幅はまだまだありそうです。 画像認識機能 今回追加された画像認識機能では、ユーザからChatGPTに画像をアップロードし、それに関する情報やアドバイスを求めることが可能になります。 OpenAIの発表によると画像の認識機能は、GPT-3.5とGPT-4のマルチモーダルモデルによってサポートされるそうです。 画像認識機能の活用事例 ChatGPTに写真やスクリーンショットをアップロードし、それに関する情報やアドバイスを求めることができます。OpenAIが紹介する活用例では、キッチン周りの急なトラブルに関する問題解決や冷蔵庫の中身に関する食事の計画、仕事関連のデータの複雑なグラフを分析などが挙げられていました。 セキュリテ […]

  3. Read

    OpenAI、ChatGPTに「カスタム指示」(Custom instructions)機能を導入

    OpenAIは2023年7月20日(現地時間)、ChatGPT利用者のユーザーエクスペリエンスを向上させる新機能、「カスタム指示 (Custom instructions)」を発表しました。このアップデートにより、ChatGPTの利用者はモデルの応答をより細かく制御できるようになります。 Custom instructions(カスタム指示)の設定方法はこちら カスタム指示とは カスタム指示(Custom instructions)は、ChatGPTに特定の好みや要件を伝えるための新しいフィールドです。これにより、ChatGPTのユーザは一度の設定で自分のニーズに合わせてChatGPTをカスタマイズできるようになります。たとえば、3年生の科学を教えている教師や、Python以外の言語で効率的なコードを好む開発者は、その要件を毎回指定する必要がなくなります。 プラグインの強化 この新機能は、プラグインの使用体験も向上させる可能性があります。ユーザーが住んでいる都市を指定すれば、例えばレストラン予約をサポートするプラグインがその都市を考慮して動作するなど、プラグインの利用がよりスムーズになります。 ベータ版への注意 現在、この機能はベータ版として提供されており、完璧な動作は保証されていません。OpenAIはユーザーからのフィードバックを受け取りながら、機能の改善を続けていく方針です。 安全性とプライバシー OpenAIは新しい指示方法に対する安全対策も強化しています。Moderation APIを利用して、ユーザーの指示が使用ポリシーに違反している場合は保存されないようにしています。また、プライバシーに関しても、カスタム指示がモデルのパフォーマンス向上のために使用される場合、個人を特定できる情報は取り除かれるとのこと。 利用開始方法 この新機能は、OpenAIのPlusプランのユーザーから利用できるようになっており、ウェブやiOSで設定を変更することでベータ版を試用できます。ただし、現段階ではイギリス(UK)と欧州連合(EU)での利用はできません。 今回のアップデートは、AIのカスタマイズ性とユーザビリティの向上を目指すOpenAIの取り組みの一環として導入されました。今後もOpenAIからのさらなる革新的なアップデートに期待が高まります。 弊ブログやあのかぼ(Kab […]