Query the GPT model
Usage
query_gpt(
prompt,
model = "gpt-4o-mini",
temperature = 0,
max_tokens = NULL,
endpoint = "https://api.openai.com/v1/chat/completions",
max_try = 10,
quiet = TRUE,
na_if_error = FALSE,
seed = NULL,
use_py = FALSE
)
Arguments
- prompt
(chr) the prompt to use
- model
(chr) the model to use
- temperature
(dbl) the temperature to use
- max_tokens
(dbl) the maximum number of tokens
- endpoint
(chr, default = "https://api.openai.com/v1/chat/completions", i.e. the OpenAI API) the endpoint to use for the request.
- max_try
(int) the maximum number of tries
- quiet
(lgl) whether to print information
- na_if_error
(lgl) whether to return NA if an error occurs
- seed
(chr, default = NULL) a string to seed the random number
- use_py
(lgl, default = FALSE) whether to use python or not
Examples
if (FALSE) {
prompt <- compose_prompt_api(
sys_prompt = compose_sys_prompt(
role = "Sei l'assistente di un docente universitario.",
context = "
Tu e lui state preparando un workshop sull'utilizzo di ChatGPT
per biostatisitci ed epidemiologi."
),
usr_prompt = compose_usr_prompt(
task = "
Il tuo compito è trovare cosa dire per spiegare cosa sia una
chat di ChatGPT agli studenti, considerando che potrebbe
esserci qualcuno che non ne ha mai sentito parlare (e segue
il worksho incuriosito dal titolo o dagli amici).",
output = "
Riporta un potenziale dialogo tra il docente e gli studenti
che assolva ed esemplifichi lo scopo descritto.",
style = "Usa un tono amichevole, colloquiale, ma preciso."
)
)
res <- query_gpt(prompt)
get_content(res)
get_tokens(res)
}