Pitkän kontekstin JSON-käännös ChatGPT:llä
Opi käyttämään uusinta ChatGPT-mallia ja JSON-tilaa kääntääksesi JSON-objekti pitkällä kontekstilla ja striimata käyttötuloksen JSON:ksi.
Opi käyttämään uusinta ChatGPT-mallia ja JSON-tilaa kääntääksesi JSON-tiedosto pitkällä kontekstilla ja striimata käyttötulos takaisin JSON:ksi.
Johdanto
On kulunut aikaa viimeisestä artikkelistamme Tehokas kansainvälistäminen ChatGPT:llä, jossa näytimme, miten ChatGPT:tä voidaan käyttää JSON-objektin kääntämiseen. Mallin kehittyessä käännöskyvyt ovat parantuneet merkittävästi pidemmällä kontekstinikkunalla, lisääntyneillä maksimiulostulotokeneilla ja uusilla ominaisuuksilla, kuten JSON-tila, mikä tekee kehittäjäkokemuksesta vielä paremman.
Kasvatetut maksimitulostetokenit
Katsotaanpa nopea vertailu mallin kahden viimeisimmän version välillä:
Malli | Kuvaus | Kontekstin ikkunan koko | Maksimilähtötokenit | Harjoitusdata |
---|---|---|---|---|
gpt-4o-2024-05-13 | gpt-4o osoittaa tällä hetkellä tähän versioon. | 128 000 tokenia | 4096 tokenia | Lokakuuhun 2023 |
gpt-4o-2024-08-06 | Uusin snapshot, joka tukee rakenteellisia tuotoksia | 128 000 tokenia | 16 384 tokenia | Lokakuuhun 2023 |
Merkittävin muutos on maksimitulostetokenien kasvu 4096:sta 16 384:ään, mikä sopii täydellisesti kääntämisskenaarioon, koska käännöksen tulos on yleensä noin yhtä pitkä tai pidempi kuin syöte. Sillä välin hinta jopa laski verrattuna aikaisempaan 32K token -malliin (se oli kallis).
JSON-tila
Kuten nimi viittaa, JSON-tila on erittäin hyödyllinen, kun haluat varmistaa, että tulos on kelvollinen JSON-objekti. Uudelle mallille voit jopa määritellä tuotettavan JSON-objektin skeeman käyttäen rakenteellisia tuotoksia.
Aloitetaan
Alustaminen
Käytämme tässä artikkelissa OpenAI:n Node.js SDK:ta v4.56.0 demonstrointia varten. Voit käyttää mitä tahansa muuta menetelmää tai kieltä, jota haluat.
Ensiksi, meidän täytyy alustaa OpenAI-asiakas:
Suosittelen vahvasti käyttämään suoratoistotilaa pitkäkontekstisessa käännöksessä, sillä se on tehokkaampaa eikä sinun tarvitse odottaa pitkään saadaksesi tuloksen (esimerkiksi yksi minuutti yhdelle pyynnölle). Koodi näyttää tältä:
Kirjoitetaan joitakin kehotteita
Voimme käyttää system
-roolia ohjeistamaan mallia sen tehtävässä:
Muista korvata "es" kohdekoodillasi. Kokemuksemme mukaan on olemassa useita ohjeita, jotka meidän on kerrottava mallille paremman tuotoksen ja vähemmän ihmisen intervention saamiseksi:
Saatat ihmetellä miksi tarvitsemme viimeistä ohjetta. Tässä on OpenAI:n selitys täältä:
Kun käytät JSON-tilaa, sinun on aina ohjeistettava malli tuottamaan JSON-järvellä keskustelussa, esimerkiksi järjestelmäviestisi kautta. Jos et sisällytä eksplisiittistä ohjetta JSON:in luomiseksi, malli saattaa tuottaa loputonta välivyöhykettä ja pyyntö saattaa kestää jatkuvasti, kunnes se saavuttaa token-rajan.
Yllä olevilla ohjeilla voimme laittaa käännettävän JSON-objektin seuraavaan viestiin käyttäjäroolilla. Muodostakaamme tähän asti keräämämme:
Tuloksen käsittely
Koska käytämme suoratoistotilaa, meidän täytyy käsitellä tulos suoratoistotyyliin. Tässä on esimerkki:
Johtopäätös
Siinä kaikki! Uuden ChatGPT-mallin myötä JSON-käännöksen tehokkuus on edelleen parantunut, ja myös käännösten laatu on parempi. Toivon, että tämä artikkeli auttaa sinua saamaan uusia näkemyksiä ChatGPT:stä ja JSON-käännöksestä. Nähdään seuraavassa artikkelissa!