I SERVIZI DI GENERATIVE AI

Il nostro slogan è “I migliori motori di GenAI in un unico Tool”… ma quali sono i modelli utilizzabili in AIDeskPro? Che differenze ci sono tra uno e l’altro? Vi forniamo qualche utile strumento e lasciamo a voi la scelta di quale motore utilizzare e quando.

Premettiamo subito che dire quale sia il migliore motore presente in AIDeskPro è impossibile. Noi li abbiamo testati tutti, ovviamente, e tutti loro hanno pregi e peculiarità, che vi invitiamo a scoprire. Vi forniamo anche i link alla documentazione pubblica, per ulteriori informazioni aggiornate.  Inoltre, abbiamo già fatto una nostra personale scelta, mettendo i Primi della Classe in una short list privilegiata e separata, che si trova in cima all’elenco di selezione del motore.

Aggiungeremo, molto spesso, nuovi motori, per portare a bordo tutte le migliori novità: man mano testeremo anche loro e modificheremo i Primi della Classe di conseguenza.

In questa pagina vi forniremo qualche utile informazione sui motori selezionabili all’interno di AIDeskPro, una serie di informazioni su contesto, privacy…, per aiutarvi a scegliere il modello più adatto alle vostre esigenze ed anche un pricing aggiornato periodicamente (utile per gli utenti della licenza API, che comporta un pagamento dei consumi dei motori di generative AI).

I motori disponibili oggi in AIDeskPro

I primi della classe

  • Google – Gemini 2.0 Flash

  • Google – Gemini 2.0 Flash Lite

  • OpenAI Gpt 4.1

  • OpenAI o4 Mini

  • Anthropic’s Claude – Sonnet 4

Gli altri motori disponibili

  • Anthropic Claude – Haiku 3 e 3.5

  • Anthropic Claude – Sonnet 3.7

  • Google – Gemini 2.0 Flash Thinking

  • OpenAI – GPT 4 Omni e Omni Mini

  • OpenAI – O3 e O3 Mini

  • Llama 3.1 405B e 3.2 90B

Ultimo aggiornamento LLM: 11 Giugno 2025 – I modelli che non garantiscono la permanenza del dato in UE sono contraddistinti, all’interno del menù a tendina di selezione, dalla dicitura “NO UE”. Si prega di prestare attenzione in fase di selezione del LLM.

Stiamo testando per voi: xAI – Grok e DeepSeek, che saranno resi disponibili quando forniranno sufficienti garanzie in tema Privacy

Pricing LLM

Pricing LLM: ultimo aggiornamento al 11 Giugno 2025 – Di seguito forniamo il costo pubblico degli LLM “Primi della Classe”, seguiti da tutti gli altri LLM disponibili in AIDeskPro. Il pricing è periodicamente aggiornato, ma il mercato degli LLM è in continuo fermento. Vi consigliamo di verificare sempre eventuali modifiche dell’ultima ora, consultando i siti ufficiali: OpenAI e Google e Model Garden (Anthropic)

Nome nella tendina di scelta LLM di AIDeskPro Costo 1M Token INPUT Costo 1M Token OUTPUT
GoogleAI – gemini-2.0-flash $0.15 $0.60
GoogleAI – gemini-2.0-flash-lite $0.075 $0.3
Vertex AI – Claude – Sonnet – 4.0 $3.00 $15.00
OpenAI Gpt 4.1 $2.00 $8.00
OpenAI o4-mini $1.10 $4.40
Vertex AI – Claude – Haiku 3.5 – NO UE $0.80 $4.00
Vertex AI – Claude – Haiku 3 $0.25 $1.25
Vertex AI – Claude – Sonnet – 3.7 $3.00 $15.00
GoogleAI – gemini-1.5-flash – latest stable $0.13 $0.53
GoogleAI – gemini-1.5-pro – latest stable $2.19 $8.75
GoogleAI – Gemini 2.5 Flash experimental – NO UE $0.15 $0.60
GoogleAI – gemini-2.5-pro – preview – NO UE $2.50 $15.00
OpenAI – gpt-4 – Omni $2.50 $10.00
OpenAI – gpt-4 – Omni – Mini $0.15 $0.60
OpenAI Gpt 4.1 Mini $0.40 $1.60
OpenAI Gpt 4.1 Nano $0.10 $0.40
OpenAI o3 $2.00 $8.00
OpenAI o3-mini $1.10 $4.40
Vertex AI – Llama 3.1 405B – NO UE $5.00 $16.00

OpenAI – Chat GPT 

Chat GPT è, probabilmente, il più famoso strumento di generative AI ed anche i primo ad essere utilizzato massivamente in versione consumer. La versione che proponiamo come Primo della Classe è sempre l’ultima (latest), più performante e con più ampio contesto in input (più è ampio il contesto, più testo viene passato al modello, per generare la risposta).

  • Permanenza del dato in UE: garantita, in virtù di con OpenAI
  • Utilizzo delle tue chat/documenti per trainare i modelli: No

Sia la permanenza nel dato in UE (European Data Residency) sia la garanzia di non utilizzo dei dati dell’utente (Zero Data Retention) sono garantiti in virtù di accordi stipulati con OpenAI, mediante un Enterprise agreement per le OpenAI API. Ciò significa che le medesime garanzie non vengono date alle utenze non-API di OpenAI, quali, ad esempio, ChatGPT or DALL·E Labs.

Ulteriori informazioni: How we use your data, Data residency

Google Vertex AI Gemini

Rendiamo disponibili diverse versioni di Gemini, sia Pro che Flash, sia latest stable che preview e, non appena è reso disponibile da Google un nuovo modello, lo testiamo e lo integriamo, garantendo sempre ottimi risultati. Questi modelli sono dotati di una finestra contestuale da 1 o 2 milione di token, indispensabile per processare grandi porzioni di testo (anche in output, per la generazione di documenti).

  • Permanenza del dato in UE: garantita e anche disponibile su Milano! Eventuali modelli “experimental” potrebbero essere contraddistinti dalla dicitura “NO UE”, prestate attenzione.
  • Utilizzo delle tue chat/documenti per trainare il modello: no

Google non è solo Gemini! Grazie al Model garden di VertexAI è possibile accedere ad altri LLM che hanno stretto accordi di rivendita tramite Google (Modelli di Terze parti) ed anche a modelli Open Source usati su macchine Google (Modelli aperti).

Google Cloud non utilizza i dati dei clienti per addestrare i suoi modelli di base, se vuoi saperne di più

Ulteriori informazioni: Ogni necessità ha il suo modello, il Model Garden di Google, Dove si trova il mio dato, DPA di Google Cloud,

Anthropic Claude – Sonnet

Claude di Anthropic arriva in AIDeskPro tramite il Model Garden di Google Vertex AI, in virtù di un accordo tra Anthropic e Google. Il suo modello di punta è Sonnet, che rendiamo disponibile in diverse versioni, inclusa la più recente 4, ma consigliamo vivamente di provare anche il fratellino Haiku, che performa benissimo e costa molto meno! Attenzione che, da qualche settimana Haiku 3.5 è “NO UE” mentre la versione 3 è in Europa.

  • Permanenza del dato in UE: sì, tranne per Haiku 3.5
  • Utilizzo delle tue chat/documenti per trainare il modello: no

Per avere informazioni relative a dove si trova il dato e le policy di gestione del dato stesso, si fa riferimento a ciò che riferisce Google in materia di LLM utilizzati tramite Model Garden.

Ulteriori informazioni: Sito di Anthropic, Il tuo dato dove si trova, panoramica sui modelli, Anthropic Trust center

Un po’ di glossario per capire meglio!

Token: in estrema sintesi 1 token è circa pari a 3.5 caratteri. Quindi una parola media costituita da 7 caratteri, corrisponderà a circa 2 token. Quindi quando leggerete “128k” nel nome di un modello di generative AI, significa che quel modello ha una finestra di contesto pari a 128.000 token ovvero circa 64.000 parole o 448.000 caratteri!

Finestra di contesto: più è ampia la finestra, più numeroso sarà il numero di caratteri che potremo passare al motore di gen AI per elaborare la sua risposta. I modelli sono ormai dotati di contesti molto grandi… 128k, 200k e ora addirittura 1 e 2 Milioni.

Modelli di Embedding: AIDeskPro consente, in fase di creazione di un indice, di selezionare il modello di embedding. Questo servizio è diverso da quelli di generative AI presentati fino ad ora. Questo modello si occupa di convertire il testo di un indice o di una domanda utente in vettori.
Le domanda dell’utente è tradotta in vettori ed AIDeskPro, grazie al concetto di “vicinanza” tra i vettori domanda e testo indice, passa ai motori di generative AI la domanda e solo le porzioni di testo pertinenti. Questa operazione di scelta della porzione di testo da passare è importantissima e necessaria, perché la finestra di contesto limitata non consente di passare tutto il documento o n documenti per ottenere la risposta.