• chatgpt
  • tekoäly
  • kehotus
  • i18n

Pitkän kontekstin JSON-käännös ChatGPT:llä

Opi käyttämään uusinta ChatGPT-mallia ja JSON-tilaa kääntääksesi JSON-objekti pitkällä kontekstilla ja striimata käyttötuloksen JSON:ksi.

Gao
Gao
Founder

Opi käyttämään uusinta ChatGPT-mallia ja JSON-tilaa kääntääksesi JSON-tiedosto pitkällä kontekstilla ja striimata käyttötulos takaisin JSON:ksi.

Johdanto

On kulunut aikaa viimeisestä artikkelistamme Tehokas kansainvälistäminen ChatGPT:llä, jossa näytimme, miten ChatGPT:tä voidaan käyttää JSON-objektin kääntämiseen. Mallin kehittyessä käännöskyvyt ovat parantuneet merkittävästi pidemmällä kontekstinikkunalla, lisääntyneillä maksimiulostulotokeneilla ja uusilla ominaisuuksilla, kuten JSON-tila, mikä tekee kehittäjäkokemuksesta vielä paremman.

Kasvatetut maksimitulostetokenit

Katsotaanpa nopea vertailu mallin kahden viimeisimmän version välillä:

MalliKuvausKontekstin ikkunan kokoMaksimilähtötokenitHarjoitusdata
gpt-4o-2024-05-13gpt-4o osoittaa tällä hetkellä tähän versioon.128 000 tokenia4096 tokeniaLokakuuhun 2023
gpt-4o-2024-08-06Uusin snapshot, joka tukee rakenteellisia tuotoksia128 000 tokenia16 384 tokeniaLokakuuhun 2023

Merkittävin muutos on maksimitulostetokenien kasvu 4096:sta 16 384:ään, mikä sopii täydellisesti kääntämisskenaarioon, koska käännöksen tulos on yleensä noin yhtä pitkä tai pidempi kuin syöte. Sillä välin hinta jopa laski verrattuna aikaisempaan 32K token -malliin (se oli kallis).

JSON-tila

Kuten nimi viittaa, JSON-tila on erittäin hyödyllinen, kun haluat varmistaa, että tulos on kelvollinen JSON-objekti. Uudelle mallille voit jopa määritellä tuotettavan JSON-objektin skeeman käyttäen rakenteellisia tuotoksia.

Aloitetaan

Alustaminen

Käytämme tässä artikkelissa OpenAI:n Node.js SDK:ta v4.56.0 demonstrointia varten. Voit käyttää mitä tahansa muuta menetelmää tai kieltä, jota haluat.

Ensiksi, meidän täytyy alustaa OpenAI-asiakas:

Suosittelen vahvasti käyttämään suoratoistotilaa pitkäkontekstisessa käännöksessä, sillä se on tehokkaampaa eikä sinun tarvitse odottaa pitkään saadaksesi tuloksen (esimerkiksi yksi minuutti yhdelle pyynnölle). Koodi näyttää tältä:

Kirjoitetaan joitakin kehotteita

Voimme käyttää system-roolia ohjeistamaan mallia sen tehtävässä:

Muista korvata "es" kohdekoodillasi. Kokemuksemme mukaan on olemassa useita ohjeita, jotka meidän on kerrottava mallille paremman tuotoksen ja vähemmän ihmisen intervention saamiseksi:

Saatat ihmetellä miksi tarvitsemme viimeistä ohjetta. Tässä on OpenAI:n selitys täältä:

Kun käytät JSON-tilaa, sinun on aina ohjeistettava malli tuottamaan JSON-järvellä keskustelussa, esimerkiksi järjestelmäviestisi kautta. Jos et sisällytä eksplisiittistä ohjetta JSON:in luomiseksi, malli saattaa tuottaa loputonta välivyöhykettä ja pyyntö saattaa kestää jatkuvasti, kunnes se saavuttaa token-rajan.

Yllä olevilla ohjeilla voimme laittaa käännettävän JSON-objektin seuraavaan viestiin käyttäjäroolilla. Muodostakaamme tähän asti keräämämme:

Tuloksen käsittely

Koska käytämme suoratoistotilaa, meidän täytyy käsitellä tulos suoratoistotyyliin. Tässä on esimerkki:

Johtopäätös

Siinä kaikki! Uuden ChatGPT-mallin myötä JSON-käännöksen tehokkuus on edelleen parantunut, ja myös käännösten laatu on parempi. Toivon, että tämä artikkeli auttaa sinua saamaan uusia näkemyksiä ChatGPT:stä ja JSON-käännöksestä. Nähdään seuraavassa artikkelissa!