In base alle ricerche più recenti, la lingua naturale (che è un particolare tipo di linguaggio, un sistema di segni che correlano un’espressione a un contenuto) sarebbe costituita da tre elementi: parole (componenti basilari); regole (strategie di combinazione di elementi); interfacce (luoghi di connessione lingua-mondo).
Per Noam Chomsky, GPT-3 non è un modello linguistico: poiché funziona bene tanto per le “lingue impossibili”, che hanno una struttura lineare, quanto per le lingue naturali vere e proprie, che hanno una struttura gerarchica e ricorsiva, non costituisce un modello scientifico. Per motivi strutturali, sarebbe il modo stesso in cui GPT-3 opera a renderlo irrelato tanto con il linguaggio, quanto con la cognizione in generale: secondo gli studi fisici e neurolinguistici più recenti, la nostra mente potrebbe non essere direttamente connessa al connettoma, ma avere natura quantistica. Per Carlos Montemayor, gli output di GPT-3 assomigliano alla lingua, ma non sono strumento di comunicazione propriamente detto: ne mancano i presupposti. Per Regina Rini e Annette Zimmermann, GPT-3 non è che uno specchio, dello zeitgeist e dei pattern della nostra società, bias inclusi.