ArtificialIntelligence
人工知能を使用したアクションです。(*ベータ版のため、仕様が変更になる可能性があります。)
CallLearnedModel
概要
CallLearnedModelは、登録されている機械学習モデルをリストから選択して使用することができるアクションです。現在登録されている機械学習モデルは「企業情報取得モデル」のみです。
パラメーター
*は、必須パラメーター ※呼び出す機械学習モデルに応じて、id以外に必要となるパラメーターは異なります。
名前 | 型 | 概要 | 例 |
---|---|---|---|
id* | 数値 | 機械学習モデルID | 1 |
アウトプット
タイプ | 型 | 概要 | 例 |
---|---|---|---|
JSON | JSON形式 | 機械学習モデルでの処理結果 | ※各機械学習モデルの使用例のアウトプットを参照してください |
登録されている機械学習モデル
企業情報取得モデル
企業情報取得モデルは、企業のドメインを入力すると、その企業の情報を出力する機械学習モデルです。現在は企業のホームページurlと代表者名を取得することができます。成功率は約80%です。企業のホームページに「会社概要」に類するページがない場合や、ホームページ内に代表者名が明記されていない場合には取得できません。 (※ベータ版のため、仕様が変更になる可能性があります。)
パラメーター
*は、必須パラメーター
名前 | 型 | 概要 | 例 |
---|---|---|---|
domain* | 文字列 | 企業のドメイン | sample-domain.com |
アウトプット
タイプ | 型 | 概要 | 例 |
---|---|---|---|
JSON | JSON形式 | 企業情報 | ※使用例のアウトプット参照 |
使用例
+call_learned_model_1:
action>: CallLearnedModel
id: 35
params:
domain: 'sample-domain.com'
meta:
interface:
params:
ドメインURL: Text
display:
id:
type: chip
label: '企業情報取得モデル'
icon: build
color: '#0097A7'
# => {
# "ホームページ": "https://sample-domain.com/company/info",
# "代表者": [
# "鈴木太郎", "佐藤次郎"
# ]
# }
ChatWithGPT
概要
ChatWithGPTは、OpenAIのGPT-3.5-turboモデルを使用して、ユーザーのプロンプトに対する応答を生成するアクションです。 *ベータ版のため、仕様が変更になる可能性があります。 *Desktop版では使用できないアクションです。
パラメーター
*は、必須パラメーター
名前 | 型 | 概要 | 例 |
---|---|---|---|
prompt* | 文字列 | モデルに送信される入力テキスト。文字数の上限については、下記のトークン数の上限についてをご確認ください。 | "What is the capital of France?" |
max_tokens | 数値 | 生成される応答の最大トークン数。0~4096まで設定可能。 | 300 |
temperature | 数値 | モデルの生成する応答のランダム性を制御するパラメーター。0~2まで設定可能。 | 1 |
アウトプット
タイプ | 型 | 概要 | 例 |
---|---|---|---|
Text | 文字列 | GPT-3.5-turboモデルが生成した応答のテキスト | "The capital of France is Paris." |
使用例
+chat_with_g_p_t:
action>: ChatWithGPT
prompt: 'What is the capital of France?'
max_tokens: 50
temperature: 0.7
出力: "The capital of France is Paris."
データの取り扱いについて
このアクションで利用されるデータはOpenAIのデータポリシーに従います。 機密情報などは渡さないようにしてください。
データ使用に関するポリシー https://openai.com/policies/api-data-usage-policies
トークン数について
トークン数は、ChatGPTが生成するテキストの長さを制御するパラメータです。 1つのトークンは、単語や句読点などのテキストの一部分を表します。 トークン数が多ければ、生成されるテキストが長くなりますが、短すぎると文章が途中で切れる可能性があります。 max_tokensパラメーターに適切なトークン数を設定することで、生成されるテキストの長さや品質を調整できます。
トークン数の上限について
トークン数は入力と出力合わせて4096トークンまでとなっています。 例えば、promptパラメーターで4096トークンのテキストを設定した場合、このアクションのアウトプットは出力されません。
日本語の場合、1文字は通常1トークンとしてカウントされます。ただし、文字によっては2トークン以上になる場合があります。
トークン数はここで確認できます。 https://platform.openai.com/tokenizer
temperatureについて
temperatureは、生成されるテキストのランダム性や多様性を制御するパラメータです。 temperatureが高いと、モデルはよりランダムで予測しにくい文章を生成します。 一方で、temperatureが低いと、モデルはより保守的で確実な文章を生成します。
例えば、おすすめのアイスクリームのフレーバーを尋ねる場合、 temperatureが高いと、一般的ではないフレーバー(「ブルーチーズのアイスクリーム」など)が答えとして出力される可能性が高くなります。 一方、temperatureが低いと、より一般的なフレーバー(「バニラ」や「チョコレート」など)が答えとして出力される可能性が高くなります。
ChatWithLLM
概要
ChatWithLLMは、指定する大規模言語モデル(LLM)を使用して、ユーザーのプロンプトに対する応答を生成するアクションです。現在指定できるモデルは、OpenAIが提供する gpt-3.5-turbo, gpt-3.5-turbo-1106, gpt-4, gpt-4o, gpt-4-1106-preview, gpt-4-vision-preview と Googleが提供する gemini-pro, gemini-pro-visionです。使用するためにコネクションを作成する必要があります。
パラメーター
*は、必須パラメーター
名前 | 型 | 概要 | 例 |
---|---|---|---|
provider_id* | 文字列 | 利用するコネクションのプロバイダIDです。 | "chatgpt_0c978f5100b97c17ab51" |
prompt* | 文字列 | モデルに送信される入力テキストです。あわせて、本ページ下部にある「トークン数の上限について」もご確認ください。 | "What is the capital of France?" |
filename | 文字列 | 画像ファイルのID もしくは パスです。modelパラメータがgpt-4o, gpt-4-vision-preview, gemini-pro-visionの時のみ指定できます。gemini-pro-visionは動画も指定可能です(20MB もしくは 2分まで)。 | +get_file_1 |
model* | 文字列 | 利用したいOpenAIモデルです。デフォルトは"gpt-3.5-turbo" です。 | "gpt-4" |
max_tokens | 数値 | 生成される応答の最大トークン数です。modelに応じて設定可能トークン数が違います。 gpt-3.5-turbo:1~4096gpt-4-1106-vision-preview :1~4,096 gemini-pro :1~8192 gemini-pro-vision :1~2048 各モデルについて詳しくは下記を参照ください。 ChatGPTGemini |
300 |
temperature | 数値 | モデルの生成する応答のランダム性を制御するパラメータです。0~2まで設定可能です。 | 1 |
アウトプット
タイプ | 型 | 概要 | 例 |
---|---|---|---|
Text | 文字列 | 生成した応答のテキスト | "The capital of France is Paris." |
利用列
# LLMによるチャット
+chat_with_l_l_m_1:
action>: ChatWithLLM
provider_id: chatgpt_0c978f5100b97c17ab51
prompt: 'What is the capital of France?'
model: 'gpt-3.5-turbo'
max_tokens: 300
temperature: 1
private: false
meta:
display:
provider_id:
type: chip
label: 'ChatGPT (AUTORO連携用)'
icon: chatgpt
出力: "The capital of France is Paris."
データの取り扱いについて
このアクションで利用されるデータは各社のデータポリシーに従います。 機密情報などは渡さないようにしてください。
OpenAI: データ使用に関するポリシー
Google: Gemini アプリのプライバシー ハブ
トークン数について
トークン数は、ChatGPTやGeminiが生成するテキストの長さを制御するパラメーターです。 1つのトークンは、単語や句読点などのテキストの一部分を表します。 トークン数が多ければ、生成されるテキストが長くなりますが、短すぎると文章が途中で切れる可能性があります。 max_tokensパラメーターに適切なトークン数を設定することで、生成されるテキストの長さや品質を調整できます。
トークン数の上限について
モデルによってトークン数は異なります。例としてGPT-4では、入力と出力合わせて8192トークンまでとなっています。 例えば、promptパラメーターで8192トークンのテキストを設定した場合、このアクションのアウトプットは出力されません。
日本語の場合、1文字は通常1トークンとしてカウントされます。ただし、文字によっては2トークン以上になる場合があります。
各モデルのトークン数については下記を参照ください。
temperatureについて
temperatureは、生成されるテキストのランダム性や多様性を制御するパラメータです。 temperatureが高いと、モデルはよりランダムで予測しにくい文章を生成します。 一方で、temperatureが低いと、モデルはより保守的で確実な文章を生成します。
例えば、おすすめのアイスクリームのフレーバーを尋ねる場合、 temperatureが高いと、一般的ではないフレーバー(「ブルーチーズのアイスクリーム」など)が答えとして出力される可能性が高くなります。 一方、temperatureが低いと、より一般的なフレーバー(「バニラ」や「チョコレート」など)が答えとして出力される可能性が高くなります。