ArtificialIntelligence

人工知能を使用したアクションです。(*ベータ版のため、仕様が変更になる可能性があります。)

CallLearnedModel

概要

CallLearnedModelは、登録されている機械学習モデルをリストから選択して使用することができるアクションです。現在登録されている機械学習モデルは「企業情報取得モデル」のみです。

パラメーター

*は、必須パラメーター ※呼び出す機械学習モデルに応じて、id以外に必要となるパラメーターは異なります。

名前 概要
id* 数値 機械学習モデルID 1

アウトプット

タイプ 概要
JSON JSON形式 機械学習モデルでの処理結果 ※各機械学習モデルの使用例のアウトプットを参照してください

登録されている機械学習モデル

企業情報取得モデル

企業情報取得モデルは、企業のドメインを入力すると、その企業の情報を出力する機械学習モデルです。現在は企業のホームページurlと代表者名を取得することができます。成功率は約80%です。企業のホームページに「会社概要」に類するページがない場合や、ホームページ内に代表者名が明記されていない場合には取得できません。 (※ベータ版のため、仕様が変更になる可能性があります。)

パラメーター

*は、必須パラメーター

名前 概要
domain* 文字列 企業のドメイン sample-domain.com

アウトプット

タイプ 概要
JSON JSON形式 企業情報 ※使用例のアウトプット参照

使用例

+call_learned_model_1:
  action>: CallLearnedModel
  id: 35
  params:
    domain: 'sample-domain.com'
  meta:
    interface:
      params:
        ドメインURL: Text
    display:
      id:
        type: chip
        label: '企業情報取得モデル'
        icon: build
        color: '#0097A7'
# => {
#   "ホームページ": "https://sample-domain.com/company/info",
#   "代表者": [
#     "鈴木太郎", "佐藤次郎"
#   ]
# }

ChatWithGPT

概要

ChatWithGPTは、OpenAIのGPT-3.5-turboモデルを使用して、ユーザーのプロンプトに対する応答を生成するアクションです。 *ベータ版のため、仕様が変更になる可能性があります。 *Desktop版では使用できないアクションです。

パラメーター

*は、必須パラメーター

名前 概要
prompt* 文字列 モデルに送信される入力テキスト。文字数の上限については、下記のトークン数の上限についてをご確認ください。 "What is the capital of France?"
max_tokens 数値 生成される応答の最大トークン数。0~4096まで設定可能。 300
temperature 数値 モデルの生成する応答のランダム性を制御するパラメーター。0~2まで設定可能。 1

アウトプット

タイプ 概要
Text 文字列 GPT-3.5-turboモデルが生成した応答のテキスト "The capital of France is Paris."

使用例

+chat_with_g_p_t:
  action>: ChatWithGPT
  prompt: 'What is the capital of France?'
  max_tokens: 50
  temperature: 0.7

出力: "The capital of France is Paris."

データの取り扱いについて

このアクションで利用されるデータはOpenAIのデータポリシーに従います。 機密情報などは渡さないようにしてください。

データ使用に関するポリシー https://openai.com/policies/api-data-usage-policies

トークン数について

トークン数は、ChatGPTが生成するテキストの長さを制御するパラメータです。 1つのトークンは、単語や句読点などのテキストの一部分を表します。 トークン数が多ければ、生成されるテキストが長くなりますが、短すぎると文章が途中で切れる可能性があります。 max_tokensパラメーターに適切なトークン数を設定することで、生成されるテキストの長さや品質を調整できます。

トークン数の上限について

トークン数は入力と出力合わせて4096トークンまでとなっています。 例えば、promptパラメーターで4096トークンのテキストを設定した場合、このアクションのアウトプットは出力されません。

日本語の場合、1文字は通常1トークンとしてカウントされます。ただし、文字によっては2トークン以上になる場合があります。

トークン数はここで確認できます。 https://platform.openai.com/tokenizer

temperatureについて

temperatureは、生成されるテキストのランダム性や多様性を制御するパラメータです。 temperatureが高いと、モデルはよりランダムで予測しにくい文章を生成します。 一方で、temperatureが低いと、モデルはより保守的で確実な文章を生成します。

例えば、おすすめのアイスクリームのフレーバーを尋ねる場合、 temperatureが高いと、一般的ではないフレーバー(「ブルーチーズのアイスクリーム」など)が答えとして出力される可能性が高くなります。 一方、temperatureが低いと、より一般的なフレーバー(「バニラ」や「チョコレート」など)が答えとして出力される可能性が高くなります。

ChatWithLLM

概要

ChatWithLLMは、指定する大規模言語モデル(LLM)を使用して、ユーザーのプロンプトに対する応答を生成するアクションです。現在指定できるモデルは、OpenAIが提供する gpt-3.5-turbo, gpt-3.5-turbo-1106, gpt-4, gpt-4-1106-preview, gpt-4-vision-preview と Googleが提供する gemini-pro, gemini-pro-visionです。使用するためにコネクションを作成する必要があります。

ChatGPTとのコネクション作成

Gemini Proとのコネクション作成

パラメーター

*は、必須パラメーター

名前 概要   例
provider_id* 文字列 利用するコネクションのプロバイダIDです。 "chatgpt_0c978f5100b97c17ab51"
prompt* 文字列 モデルに送信される入力テキストです。あわせて、本ページ下部にある「トークン数の上限について」もご確認ください。 "What is the capital of France?"
filename 文字列 画像ファイルのID もしくは パスです。modelパラメータが gpt-4-vision-preview または gemini-pro-visionの時のみ指定できます。gemini-pro-visionは動画も指定可能です(20MB もしくは 2分まで)。 +get_file_1
model* 文字列 利用したいOpenAIモデルです。デフォルトは"gpt-3.5-turbo" です。 "gpt-4"
max_tokens 数値

生成される応答の最大トークン数です。modelに応じて設定可能トークン数が違います。

gpt-3.5-turbo:1~4096
gpt-4-1106-vision-preview :1~4,096
gemini-pro :1~8192
gemini-pro-vision :1~2048

各モデルについて詳しくは下記を参照ください。

ChatGPT
Gemini
300
temperature 数値 モデルの生成する応答のランダム性を制御するパラメータです。0~2まで設定可能です。 1

アウトプット

タイプ 概要
Text 文字列 生成した応答のテキスト "The capital of France is Paris."

利用列

# LLMによるチャット
+chat_with_l_l_m_1:
  action>: ChatWithLLM
  provider_id: chatgpt_0c978f5100b97c17ab51
  prompt: 'What is the capital of France?'
  model: 'gpt-3.5-turbo'
  max_tokens: 300
  temperature: 1
  private: false
  meta:
    display:
      provider_id:
        type: chip
        label: 'ChatGPT (AUTORO連携用)'
        icon: chatgpt

出力: "The capital of France is Paris."

データの取り扱いについて

このアクションで利用されるデータは各社のデータポリシーに従います。 機密情報などは渡さないようにしてください。

OpenAI: データ使用に関するポリシー

Google: Gemini アプリのプライバシー ハブ

トークン数について

トークン数は、ChatGPTやGeminiが生成するテキストの長さを制御するパラメーターです。 1つのトークンは、単語や句読点などのテキストの一部分を表します。 トークン数が多ければ、生成されるテキストが長くなりますが、短すぎると文章が途中で切れる可能性があります。 max_tokensパラメーターに適切なトークン数を設定することで、生成されるテキストの長さや品質を調整できます。

トークン数の上限について

モデルによってトークン数は異なります。例としてGPT-4では、入力と出力合わせて8192トークンまでとなっています。 例えば、promptパラメーターで8192トークンのテキストを設定した場合、このアクションのアウトプットは出力されません。

日本語の場合、1文字は通常1トークンとしてカウントされます。ただし、文字によっては2トークン以上になる場合があります。

各モデルのトークン数については下記を参照ください。

OpenAI

Gemini

temperatureについて

temperatureは、生成されるテキストのランダム性や多様性を制御するパラメータです。 temperatureが高いと、モデルはよりランダムで予測しにくい文章を生成します。 一方で、temperatureが低いと、モデルはより保守的で確実な文章を生成します。

例えば、おすすめのアイスクリームのフレーバーを尋ねる場合、 temperatureが高いと、一般的ではないフレーバー(「ブルーチーズのアイスクリーム」など)が答えとして出力される可能性が高くなります。 一方、temperatureが低いと、より一般的なフレーバー(「バニラ」や「チョコレート」など)が答えとして出力される可能性が高くなります。

results matching ""

    No results matching ""