diff --git a/pages/techniques/_meta.it.json b/pages/techniques/_meta.it.json index 49bbdc8..f6e67b7 100644 --- a/pages/techniques/_meta.it.json +++ b/pages/techniques/_meta.it.json @@ -1,14 +1,14 @@ { - "zeroshot": "Zero-shot Prompting", - "fewshot": "Few-shot Prompting", - "cot": "Chain-of-Thought Prompting", + "zeroshot": "Prompt Zero-shot", + "fewshot": "Prompt Few-shot", + "cot": "Prompt Chain-of-Thought", "consistency": "Self-Consistency", - "knowledge": "Generate Knowledge Prompting", + "knowledge": "Prompt Generate Knowledge", "ape": "Automatic Prompt Engineer", "activeprompt": "Prompt Attivo", - "dsp": "Directional Stimulus Prompting", + "dsp": "Prompt Directional Stimulus", "react": "ReAct", "multimodalcot": "Multimodal CoT", - "graph": "Graph Prompting" + "graph": "Graph Prompt" } diff --git a/pages/techniques/cot.it.mdx b/pages/techniques/cot.it.mdx index 4aa050d..463728d 100644 --- a/pages/techniques/cot.it.mdx +++ b/pages/techniques/cot.it.mdx @@ -1,11 +1,11 @@ -# Chain-of-Thought Prompting +# Prompt Chain-of-Thought import {Screenshot} from 'components/screenshot' import COT from '../../img/cot.png' import ZEROCOT from '../../img/zero-cot.png' -## Chain-of-Thought (CoT) Prompting +## Chain-of-Thought (CoT) Prompt diff --git a/pages/techniques/dsp.it.mdx b/pages/techniques/dsp.it.mdx index 2d89eac..77ef8ea 100644 --- a/pages/techniques/dsp.it.mdx +++ b/pages/techniques/dsp.it.mdx @@ -1,4 +1,4 @@ -# Directional Stimulus Prompting +# Prompt Directional Stimulus import { Callout, FileTree } from 'nextra-theme-docs' import {Screenshot} from 'components/screenshot' diff --git a/pages/techniques/fewshot.it.mdx b/pages/techniques/fewshot.it.mdx index f288dd8..7a31973 100644 --- a/pages/techniques/fewshot.it.mdx +++ b/pages/techniques/fewshot.it.mdx @@ -1,4 +1,4 @@ -# Few-Shot Prompting +# Prompt Few-Shot Sebbene i modelli di grandi dimensioni dimostrino notevoli capacità di apprendimento zero-shot, non sono ancora all'altezza di compiti più complessi quando si utilizza questa impostazione. Il prompt few-shot può essere utilizzato come tecnica per consentire l'apprendimento in contesto, in cui forniamo dimostrazioni nel prompt per guidare il modello verso prestazioni migliori. Le dimostrazioni servono come condizionamento per gli esempi successivi in cui vorremmo che il modello generasse una risposta. diff --git a/pages/techniques/graph.it.mdx b/pages/techniques/graph.it.mdx index b149ff6..bceadd7 100644 --- a/pages/techniques/graph.it.mdx +++ b/pages/techniques/graph.it.mdx @@ -1,4 +1,4 @@ -# GraphPrompts +# Graph Prompt [Liu et al., 2023](https://arxiv.org/abs/2302.08043) presenta GraphPrompt, un nuovo framework di prompting per i grafi per migliorare le prestazioni dei compiti a valle. diff --git a/pages/techniques/knowledge.it.mdx b/pages/techniques/knowledge.it.mdx index 77d41c5..8fcdd98 100644 --- a/pages/techniques/knowledge.it.mdx +++ b/pages/techniques/knowledge.it.mdx @@ -1,4 +1,4 @@ -# Generated Knowledge Prompting +# Prompt Generated Knowledge import {Screenshot} from 'components/screenshot' import GENKNOW from '../../img/gen-knowledge.png' diff --git a/pages/techniques/zeroshot.it.mdx b/pages/techniques/zeroshot.it.mdx index 1aeab7c..9323091 100644 --- a/pages/techniques/zeroshot.it.mdx +++ b/pages/techniques/zeroshot.it.mdx @@ -1,4 +1,4 @@ -# Zero-Shot Prompting +# Prompt Zero-Shot Oggi i LLM, addestrati su grandi quantità di dati e regolati per seguire le istruzioni, sono in grado di eseguire compiti a colpo zero. Nella sezione precedente abbiamo provato alcuni esempi a colpo zero. Ecco uno degli esempi utilizzati: *Prompt:*