Physical Address

304 North Cardinal St.
Dorchester Center, MA 02124

Il debutto di Codex CLI

Per introdurre l’intelligenza artificiale in modo più profondo nel processo di programmazione, OpenAI sta lanciando Codex CLI, un “agente” di coding progettato per funzionare localmente tramite il software terminale.

Annunciato mercoledì insieme ai nuovi modelli AI di OpenAI, o3 e o4-mini, Codex CLI collega i modelli di OpenAI a compiti di codice e di calcolo locali, secondo quanto dichiarato dall’azienda. Tramite Codex CLI, i modelli di OpenAI possono scrivere e modificare codice su un desktop e compiere determinate azioni, come spostare file.

Codex CLI sembra essere un piccolo passo verso la visione più ampia di OpenAI di un coding “agente”. Recentemente, il CFO dell’azienda, Sarah Friar, ha descritto quello che ha definito l’“ingegnere del software agente”, una serie di strumenti che OpenAI intende costruire per prendere una descrizione di progetto per un’app e crearla, e persino eseguire i test di qualità.

Codex CLI non arriverà a tanto. Tuttavia, integrerà i modelli di OpenAI, inclusi eventualmente o3 e o4-mini, con i client che elaborano codice e comandi per il computer, noti anche come interfacce a riga di comando (CLI).

Inoltre, Codex CLI è open source, afferma OpenAI.

“[Codex CLI è] un agente di coding leggero e open source che funziona localmente nel tuo terminale”, ha dichiarato un portavoce di OpenAI. “L’obiettivo [è] offrire agli utenti un’interfaccia minimale e trasparente per collegare i modelli direttamente a [codice e compiti].”

In un post sul blog, OpenAI ha aggiunto: “Puoi ottenere i benefici del ragionamento multimodale dalla riga di comando passando screenshot o schizzi a bassa fedeltà al modello, combinati con l’accesso al tuo codice localmente [via Codex CLI].”

Per incentivare l’uso di Codex CLI, OpenAI prevede di assegnare 1 milione di dollari in API grant a progetti di sviluppo software idonei. L’azienda ha dichiarato che distribuirà blocchi da 25.000 dollari in crediti API ai progetti scelti.

Gli strumenti di coding basati sull’AI comportano, naturalmente, dei rischi. Molti studi hanno dimostrato che i modelli di generazione del codice falliscono spesso nel correggere vulnerabilità di sicurezza e bug, e talvolta li introducono. È meglio tenere presente questo aspetto prima di concedere all’AI l’accesso a file o progetti sensibili, per non parlare di interi sistemi.

Lascia una risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *