Prompt-Engineering-Guide/fi-pages/introduction/settings.fi.mdx

12 lines
1.4 KiB
Plaintext
Raw Normal View History

2023-05-15 03:01:14 +08:00
# LLM-asetukset
Kehotteiden kanssa työskennellessäsi käytät LLM:ää suoraan sovelluksessa tai API:n kautta. Voit määrittää joitakin parametreja saadaksesi erilaisia tuloksia kehotteillesi.
**Temperature** - Lyhyesti sanottuna, mitä alhaisempi temperature, eli lämpötila, sitä deterministisemmät tulokset siinä mielessä, että todennäköisin seuraava merkki valitaan. Lämpötilan nostaminen voi johtaa suurempaan satunnaisuuteen, mikä kannustaa monipuolisempiin tai luovempiin tuloksiin. Käytännössä lisäät muiden mahdollisten merkkien painoarvoja. Sovelluksen kannalta saatat haluta käyttää alhaisempaa temperature-arvoa tehtävissä, kuten faktaan perustuvassa kysymys/vastaus kehottamisessa, jotta saat tarkempia vastauksia. Runojen generoinnissa tai muissa luovissa tehtävissä voi olla hyödyllistä nostaa temperature-arvoa.
**Top_p** - Tilanne on sama top_p:llä. Temperature-arvon yhteydessä käytettävä nucleus sampling, eli ydinnäytteenotto-tekniikka, jonka avulla voit hallita kuinka deterministinen malli on tuottamassa vastausta. Jos etsit tarkkoja ja tosiasiallisia vastauksia, pidä tämä matalana. Jos etsit monipuolisempia vastauksia, nosta arvo suuremmaksi.
Yleinen suositus on muuttaa vain toista, ei molempia. Aloittaessasi ei ole tarpeellista muuttaa kumpaakaan asetusta.
Ennen kuin aloitat perusesimerkeillä, pidä mielessä, että tuloksesi voivat vaihdella sen mukaan, mitä LLM-versiota käytät.