{"id":9017766941,"date":"2024-05-14T16:34:21","date_gmt":"2024-05-14T14:34:21","guid":{"rendered":"https:\/\/www.01net.it\/?p=9017766941"},"modified":"2024-05-14T16:34:21","modified_gmt":"2024-05-14T14:34:21","slug":"gpt-4o-perche-il-nuovo-modello-e-innovativo-e-come-usarlo-in-chatgpt","status":"publish","type":"post","link":"https:\/\/www.01net.it\/gpt-4o-perche-il-nuovo-modello-e-innovativo-e-come-usarlo-in-chatgpt\/","title":{"rendered":"GPT-4o: perch\u00e9 il nuovo modello \u00e8 innovativo e come usarlo in ChatGPT"},"content":{"rendered":"<p><strong>OpenAI<\/strong> <a href=\"https:\/\/www.01net.it\/openai-lancia-il-nuovo-modello-gpt-4o-e-altri-strumenti-per-chatgpt-free\/\">ha rilasciato il suo ultimo modello flagship<\/a>, <strong>GPT-4o<\/strong>, che secondo l\u2019azienda offre lo stesso livello di intelligenza di GPT-4 ma <strong>aumentando in modo significativo sia la velocit\u00e0 che le capacit\u00e0 nel testo, nell\u2019audio e nelle funzioni di computer vision<\/strong>.<\/p>\n<p>Quest\u2019ultima caratteristica \u00e8 sottolineata sin dal nome del nuovo modello: la \u201co\u201d di GPT-4o sta infatti per \u201c<strong>omni<\/strong>\u201d e OpenAI definisce il suo nuovo modello come \u201comnimodel\u201d, che abilita un’interazione molto pi\u00f9 naturale e intuitiva tra l\u2019utente e il chatbot. A questo contribuisce il fatto che il nuovo modello accetta come input <strong>qualsiasi combinazione di testo, audio e immagine<\/strong> e genera in output una qualunque combinazione di testo, audio e immagine.<\/p>\n<p>Non solo: questo obiettivo viene raggiunto eguagliando il gi\u00e0 potente modello GPT-4 Turbo nelle prestazioni su testi in inglese e con codice, e in pi\u00f9 \u2013 sottolinea OpenAI \u2013 con <strong>miglioramenti significativi su testi in lingue diverse dall’inglese<\/strong>.<\/p>\n<p>A ci\u00f2 si aggiunga che \u2013 in base a ci\u00f2 che OpenAI ha condiviso \u2013 GPT-4o \u00e8 <strong>molto pi\u00f9 veloce<\/strong> e al contempo <strong>meno costoso<\/strong> (il 50% in meno, mette in evidenza l\u2019azienda) in termini di API: questo \u00e8 chiaramente un aspetto di grande importanza per le aziende e gli sviluppatori che stanno costruendo soluzioni basate sull\u2019API di questa AI.<\/p>\n<p>Dicevamo della caratteristica \u201comni\u201d: il nuovo modello, in particolare, risulta <strong>migliore nella comprensione della visione e dell’audio<\/strong> rispetto a quelli esistenti. In un certo senso, GPT-4o \u00e8 il primo modello che nasce come \u201comnimodel\u201d. OpenAI ha spiegato di aver addestrato, con GPT-4o, <strong>un unico nuovo modello end-to-end per testo, vision e audio<\/strong>, il che significa che <strong>tutti gli input e gli output sono elaborati dalla stessa rete neurale<\/strong>.<\/p>\n<p>Secondo OpenAI, poich\u00e9 GPT-4o \u00e8 il primo modello dell\u2019azienda che combina tutte queste modalit\u00e0, siamo ancora alla superficie di queste capacit\u00e0 e c\u2019\u00e8 ancora molto da esplorare su ci\u00f2 che il modello pu\u00f2 fare e sui suoi limiti.<\/p>\n<p>Per dare un\u2019idea delle prestazioni, GPT-4o \u00e8 in grado di <strong>rispondere agli input audio in appena 232 millisecondi, con una media di 320 millisecondi<\/strong>, che OpenAI definisce un tempo simile a quello di una risposta umana nel corso di una conversazione tra persone. Per fare un paragone, prima di GPT-4o era possibile utilizzare la <a href=\"https:\/\/openai.com\/index\/chatgpt-can-now-see-hear-and-speak\" target=\"_blank\" rel=\"noopener\">Voice Mode<\/a> per parlare con ChatGPT con latenze medie di 2,8 secondi (GPT-3.5) e 5,4 secondi (GPT-4). Prima, per fornire questa funzionalit\u00e0, veniva utilizzata una pipeline di tre modelli separati: un modello trascrive l’audio in testo, GPT-3.5 o GPT-4 ottengono il testo in input e producono testo in output, e infine un terzo modello converte il testo in audio.<\/p>\n<p>Oltre alla latenza e al decadimento delle prestazioni, questo processo determina anche che la principale fonte di intelligenza, come GPT-4, <strong>perda molte informazioni<\/strong>, tra cui ad esempio il tono della voce, o persone multiple che parlano o i rumori di fondo. E, d\u2019altro canto, l\u2019AI non pu\u00f2 produrre una serie di sfumature, nemmeno in output. Questi limiti possono essere superati con GPT-4o, perch\u00e9 il nuovo modello \u201cragiona\u201d su testo, audio e vision in modo integrato.<\/p>\n<p>Alla luce di tutto questo, quando viene misurato su benchmark tradizionali, GPT-4o \u00e8 in grado di raggiungere <strong>prestazioni di livello GPT-4 Turbo per quanto riguarda l’intelligenza testuale, il ragionamento e il codice<\/strong>, e in pi\u00f9 stabilisce <strong>nuovi ed elevati parametri per quanto riguarda le capacit\u00e0 multilingue, audio e di computer vision<\/strong>.<\/p>\n<p><a href=\"https:\/\/www.01net.it\/wp-content\/uploads\/sites\/14\/2024\/05\/gpt-40-02_light.png\"><img loading=\"lazy\" class=\"aligncenter size-full wp-image-9017766945\" src=\"https:\/\/www.01net.it\/wp-content\/uploads\/sites\/14\/2024\/05\/gpt-40-02_light.png\" alt=\"gpt\" width=\"1920\" height=\"1574\" srcset=\"https:\/\/static.tecnichenuove.it\/01net\/2024\/05\/gpt-40-02_light.png 1920w, https:\/\/static.tecnichenuove.it\/01net\/2024\/05\/gpt-40-02_light-300x246.png 300w, https:\/\/static.tecnichenuove.it\/01net\/2024\/05\/gpt-40-02_light-1024x839.png 1024w, https:\/\/static.tecnichenuove.it\/01net\/2024\/05\/gpt-40-02_light-768x630.png 768w, https:\/\/static.tecnichenuove.it\/01net\/2024\/05\/gpt-40-02_light-1536x1259.png 1536w, https:\/\/static.tecnichenuove.it\/01net\/2024\/05\/gpt-40-02_light-696x571.png 696w, https:\/\/static.tecnichenuove.it\/01net\/2024\/05\/gpt-40-02_light-1068x876.png 1068w, https:\/\/static.tecnichenuove.it\/01net\/2024\/05\/gpt-40-02_light-512x420.png 512w\" sizes=\"(max-width: 1920px) 100vw, 1920px\" \/><\/a>OpenAI ha <a href=\"https:\/\/openai.com\/index\/hello-gpt-4o\/\" target=\"_blank\" rel=\"noopener\">pubblicato una serie di benchmark<\/a> eseguiti internamente che mettono a confronto le prestazioni del nuovo modello sia rispetto agli altri dell\u2019azienda, sia rispetto a modelli di altre aziende.<\/p>\n<p>La tokenizzazione del linguaggio (<em>Language Tokenization<\/em>) in un modello linguistico di grandi dimensioni (LLM, <em>Large Language Model<\/em>) \u00e8 il processo di suddivisione del testo in unit\u00e0 pi\u00f9 piccole chiamate “token”, che possono essere parole, parti di parole, caratteri o simboli. Si tratta di un passaggio cruciale nella preparazione del testo per l’input verso gli LLM, poich\u00e9 i modelli lavorano con sequenze di token piuttosto che con il testo semplice. La <strong>compressione del tokenizer<\/strong> impiega una serie di tecniche e metodi per ridurre la dimensione del vocabolario e migliorare l’efficienza della tokenizzazione ed \u00e8 un passaggio che pu\u00f2 influenzare direttamente le prestazioni, l’efficacia e l\u2019efficienza di un modello linguistico. OpenAI ha illustrato una serie di esempi in varie lingue sulla nuova compressione del tokenizer utilizzata, per illustrare la maggiore efficienza del nuovo modello GPT-4o.<\/p>\n<p>\u00c8 per tutta questa serie di motivi che OpenAI ritiene che GPT-4o possa aprire un nuovo capitolo dell\u2019interazione tra gli utenti e il chatbot AI, in termini di efficienza, efficacia, nonch\u00e9 di naturalezza, intuitivit\u00e0 e facilit\u00e0 di utilizzo.<\/p>\n<p>Inoltre, l\u2019efficienza del modello GPT-4o ha consentito ad OpenAI di poter <strong>fornire la potenza dell\u2019intelligenza del livello di GPT-4 anche agli utenti Free<\/strong>, oltre che a quelli dei piani a pagamento. Il rilascio di queste funzionalit\u00e0, ha annunciato l\u2019azienda, avverr\u00e0 in modo graduale.<\/p>\n<p>Per gli utenti del piano Free, ChatGPT viene impostato di default su GPT-4o; tuttavia, con un <strong>limite al numero di messaggi che si possono inviare<\/strong> utilizzando il nuovo modello. Il limite varia in base all’utilizzo e alla domanda e, quando viene raggiunto, ChatGPT torna a utilizzare GPT-3.5.<\/p>\n<p><a href=\"https:\/\/www.01net.it\/wp-content\/uploads\/sites\/14\/2024\/05\/chatgpt-1.jpg\"><img loading=\"lazy\" class=\"aligncenter wp-image-9017766944\" src=\"https:\/\/www.01net.it\/wp-content\/uploads\/sites\/14\/2024\/05\/chatgpt-1.jpg\" alt=\"chatgpt\" width=\"336\" height=\"313\" srcset=\"https:\/\/static.tecnichenuove.it\/01net\/2024\/05\/chatgpt-1.jpg 452w, https:\/\/static.tecnichenuove.it\/01net\/2024\/05\/chatgpt-1-300x279.jpg 300w\" sizes=\"(max-width: 336px) 100vw, 336px\" \/><\/a>Gli utenti di ChatGPT Free possono selezionare GPT-4o \u2013 o un altro dei modelli di OpenAI \u2013 in qualsiasi momento dal menu a tendina disponibile nell\u2019angolo in alto a sinistra nella finestra della chat.<\/p>\n<p>Inoltre, possono in qualunque momento fare l\u2019upgrade del proprio piano a uno degli abbonamenti a pagamento, tramite il link disponibile nella colonna laterale, in basso.<\/p>\n<p><a href=\"https:\/\/www.01net.it\/wp-content\/uploads\/sites\/14\/2024\/05\/chatgpt-2-1.jpg\"><img loading=\"lazy\" class=\"aligncenter wp-image-9017766943\" src=\"https:\/\/www.01net.it\/wp-content\/uploads\/sites\/14\/2024\/05\/chatgpt-2-1.jpg\" alt=\"chatgpt\" width=\"578\" height=\"444\" srcset=\"https:\/\/static.tecnichenuove.it\/01net\/2024\/05\/chatgpt-2-1.jpg 901w, https:\/\/static.tecnichenuove.it\/01net\/2024\/05\/chatgpt-2-1-300x231.jpg 300w, https:\/\/static.tecnichenuove.it\/01net\/2024\/05\/chatgpt-2-1-768x591.jpg 768w, https:\/\/static.tecnichenuove.it\/01net\/2024\/05\/chatgpt-2-1-80x60.jpg 80w, https:\/\/static.tecnichenuove.it\/01net\/2024\/05\/chatgpt-2-1-696x535.jpg 696w, https:\/\/static.tecnichenuove.it\/01net\/2024\/05\/chatgpt-2-1-546x420.jpg 546w\" sizes=\"(max-width: 578px) 100vw, 578px\" \/><\/a>Gli utenti che hanno sottoscritto un piano <strong>ChatGPT Plus o Team<\/strong>, possono beneficiare di un <em>usage cap<\/em> pi\u00f9 ampio, e hanno la possibilit\u00e0 di commutare tra i vari modelli nello stesso modo.<\/p>\n<p>Al momento in cui scriviamo (il 14 maggio 2024) gli utenti Plus possono inviare fino a 80 messaggi ogni 3 ore con GPT-4o e fino a 40 messaggi ogni 3 ore con GPT-4, ma il limite potrebbe ridursi durante le ore di punta. Inoltre, il limite di messaggi di GPT-4 e GPT-4o per un utente in uno spazio di lavoro <strong>ChatGPT Team<\/strong> \u00e8 pi\u00f9 alto di quello di ChatGPT Plus.<\/p>\n<p>Per quanto riguarda gli utenti dell\u2019<strong>API OpenAI<\/strong>, GPT-4o offre diversi vantaggi rispetto a GPT-4 Turbo: \u00e8 pi\u00f9 economico del 50%; presenta rate limit 5 volte superiori, con fino a 10 milioni di token al minuto; \u00e8 due volte pi\u00f9 veloce; le sue capacit\u00e0 vision sono migliori; e fornisce un supporto migliore per le lingue non inglesi.<\/p>\n<p>Per le informazioni sul pricing e sulle caratteristiche dei diversi piani e dell\u2019API di OpenAI consigliamo di <a href=\"https:\/\/help.openai.com\/en\/articles\/7102672-how-can-i-access-gpt-4-gpt-4-turbo-and-gpt-4o\" target=\"_blank\" rel=\"noopener\">consultare la documentazione<\/a> di ChatGPT, per informazioni dettagliate e aggiornate.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>L\u2019ultimo modello flagship di OpenAI, GPT-4o, aumenta in modo significativo le prestazioni e le capacit\u00e0 nel testo, nell\u2019audio e nelle funzioni di computer vision<\/p>\n","protected":false},"author":854,"featured_media":9017766942,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_links_to":"","_links_to_target":""},"categories":[103808,3201,127316,113238,22436],"tags":[215,7551,4616,730],"yst_prominent_words":[140850,102753,105932,140849,140846,140851,32364,109176,126302,140793,140852,9452,140854,12927,34138,140853,14881,140848,140847],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v14.4.1 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<meta name=\"description\" content=\"L\u2019ultimo modello flagship di OpenAI, GPT-4o, aumenta in modo significativo le prestazioni e le capacit\u00e0 nel testo, nell\u2019audio e nelle funzioni di computer vision\" \/>\n<meta name=\"robots\" content=\"index, follow\" \/>\n<meta name=\"googlebot\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<meta name=\"bingbot\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.01net.it\/gpt-4o-perche-il-nuovo-modello-e-innovativo-e-come-usarlo-in-chatgpt\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"GPT-4o: perch\u00e9 il nuovo modello \u00e8 innovativo e come usarlo in ChatGPT\" \/>\n<meta property=\"og:description\" content=\"L\u2019ultimo modello flagship di OpenAI, GPT-4o, aumenta in modo significativo le prestazioni e le capacit\u00e0 nel testo, nell\u2019audio e nelle funzioni di computer vision\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.01net.it\/gpt-4o-perche-il-nuovo-modello-e-innovativo-e-come-usarlo-in-chatgpt\/\" \/>\n<meta property=\"og:site_name\" content=\"01net\" \/>\n<meta property=\"article:published_time\" content=\"2024-05-14T14:34:21+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/static.tecnichenuove.it\/01net\/2024\/05\/chatgpt-03.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1400\" \/>\n\t<meta property=\"og:image:height\" content=\"800\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Organization\",\"@id\":\"https:\/\/www.01net.it\/#organization\",\"name\":\"01net.it - New Business Media - Gruppo Tecniche Nuove\",\"url\":\"https:\/\/www.01net.it\/\",\"sameAs\":[],\"logo\":{\"@type\":\"ImageObject\",\"@id\":\"https:\/\/www.01net.it\/#logo\",\"inLanguage\":\"it-IT\",\"url\":\"https:\/\/static.tecnichenuove.it\/01net\/2022\/06\/01NET.png\",\"width\":1667,\"height\":424,\"caption\":\"01net.it - New Business Media - Gruppo Tecniche Nuove\"},\"image\":{\"@id\":\"https:\/\/www.01net.it\/#logo\"}},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.01net.it\/#website\",\"url\":\"https:\/\/www.01net.it\/\",\"name\":\"01net\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/www.01net.it\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":\"https:\/\/www.01net.it\/?s={search_term_string}\",\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"it-IT\"},{\"@type\":\"ImageObject\",\"@id\":\"https:\/\/www.01net.it\/gpt-4o-perche-il-nuovo-modello-e-innovativo-e-come-usarlo-in-chatgpt\/#primaryimage\",\"inLanguage\":\"it-IT\",\"url\":\"https:\/\/static.tecnichenuove.it\/01net\/2024\/05\/chatgpt-03.jpg\",\"width\":1400,\"height\":800,\"caption\":\"chatgpt\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.01net.it\/gpt-4o-perche-il-nuovo-modello-e-innovativo-e-come-usarlo-in-chatgpt\/#webpage\",\"url\":\"https:\/\/www.01net.it\/gpt-4o-perche-il-nuovo-modello-e-innovativo-e-come-usarlo-in-chatgpt\/\",\"name\":\"GPT-4o: perch\\u00e9 il nuovo modello \\u00e8 innovativo e come usarlo in ChatGPT\",\"isPartOf\":{\"@id\":\"https:\/\/www.01net.it\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/www.01net.it\/gpt-4o-perche-il-nuovo-modello-e-innovativo-e-come-usarlo-in-chatgpt\/#primaryimage\"},\"datePublished\":\"2024-05-14T14:34:21+00:00\",\"dateModified\":\"2024-05-14T14:34:21+00:00\",\"description\":\"L\\u2019ultimo modello flagship di OpenAI, GPT-4o, aumenta in modo significativo le prestazioni e le capacit\\u00e0 nel testo, nell\\u2019audio e nelle funzioni di computer vision\",\"breadcrumb\":{\"@id\":\"https:\/\/www.01net.it\/gpt-4o-perche-il-nuovo-modello-e-innovativo-e-come-usarlo-in-chatgpt\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.01net.it\/gpt-4o-perche-il-nuovo-modello-e-innovativo-e-come-usarlo-in-chatgpt\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/www.01net.it\/gpt-4o-perche-il-nuovo-modello-e-innovativo-e-come-usarlo-in-chatgpt\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"item\":{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.01net.it\/\",\"url\":\"https:\/\/www.01net.it\/\",\"name\":\"Home\"}},{\"@type\":\"ListItem\",\"position\":2,\"item\":{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.01net.it\/category\/intelligenza-artificiale\/chatgpt\/\",\"url\":\"https:\/\/www.01net.it\/category\/intelligenza-artificiale\/chatgpt\/\",\"name\":\"ChatGPT\"}},{\"@type\":\"ListItem\",\"position\":3,\"item\":{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.01net.it\/gpt-4o-perche-il-nuovo-modello-e-innovativo-e-come-usarlo-in-chatgpt\/\",\"url\":\"https:\/\/www.01net.it\/gpt-4o-perche-il-nuovo-modello-e-innovativo-e-come-usarlo-in-chatgpt\/\",\"name\":\"GPT-4o: perch\\u00e9 il nuovo modello \\u00e8 innovativo e come usarlo in ChatGPT\"}}]},{\"@type\":\"Article\",\"@id\":\"https:\/\/www.01net.it\/gpt-4o-perche-il-nuovo-modello-e-innovativo-e-come-usarlo-in-chatgpt\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/www.01net.it\/gpt-4o-perche-il-nuovo-modello-e-innovativo-e-come-usarlo-in-chatgpt\/#webpage\"},\"author\":{\"@id\":\"https:\/\/www.01net.it\/#\/schema\/person\/64eebc41a454d066b1ba62485b2d0a7b\"},\"headline\":\"GPT-4o: perch\\u00e9 il nuovo modello \\u00e8 innovativo e come usarlo in ChatGPT\",\"datePublished\":\"2024-05-14T14:34:21+00:00\",\"dateModified\":\"2024-05-14T14:34:21+00:00\",\"commentCount\":0,\"mainEntityOfPage\":{\"@id\":\"https:\/\/www.01net.it\/gpt-4o-perche-il-nuovo-modello-e-innovativo-e-come-usarlo-in-chatgpt\/#webpage\"},\"publisher\":{\"@id\":\"https:\/\/www.01net.it\/#organization\"},\"image\":{\"@id\":\"https:\/\/www.01net.it\/gpt-4o-perche-il-nuovo-modello-e-innovativo-e-come-usarlo-in-chatgpt\/#primaryimage\"},\"keywords\":\"Api,Come fare,Deep Learning,Sviluppatori\",\"articleSection\":\"ChatGPT,Featured,Intelligenza Artificiale,OpenAI,Tutorial\",\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"CommentAction\",\"name\":\"Comment\",\"target\":[\"https:\/\/www.01net.it\/gpt-4o-perche-il-nuovo-modello-e-innovativo-e-come-usarlo-in-chatgpt\/#respond\"]}]},{\"@type\":[\"Person\"],\"@id\":\"https:\/\/www.01net.it\/#\/schema\/person\/64eebc41a454d066b1ba62485b2d0a7b\",\"name\":\"Andrea De Marco\",\"image\":{\"@type\":\"ImageObject\",\"@id\":\"https:\/\/www.01net.it\/#personlogo\",\"inLanguage\":\"it-IT\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/0654d11609cd05327cf6e4906705b65f?s=96&d=mm&r=g\",\"caption\":\"Andrea De Marco\"}}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","_links":{"self":[{"href":"https:\/\/www.01net.it\/wp-json\/wp\/v2\/posts\/9017766941"}],"collection":[{"href":"https:\/\/www.01net.it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.01net.it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.01net.it\/wp-json\/wp\/v2\/users\/854"}],"replies":[{"embeddable":true,"href":"https:\/\/www.01net.it\/wp-json\/wp\/v2\/comments?post=9017766941"}],"version-history":[{"count":1,"href":"https:\/\/www.01net.it\/wp-json\/wp\/v2\/posts\/9017766941\/revisions"}],"predecessor-version":[{"id":9017766946,"href":"https:\/\/www.01net.it\/wp-json\/wp\/v2\/posts\/9017766941\/revisions\/9017766946"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.01net.it\/wp-json\/wp\/v2\/media\/9017766942"}],"wp:attachment":[{"href":"https:\/\/www.01net.it\/wp-json\/wp\/v2\/media?parent=9017766941"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.01net.it\/wp-json\/wp\/v2\/categories?post=9017766941"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.01net.it\/wp-json\/wp\/v2\/tags?post=9017766941"},{"taxonomy":"yst_prominent_words","embeddable":true,"href":"https:\/\/www.01net.it\/wp-json\/wp\/v2\/yst_prominent_words?post=9017766941"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}