Ju
@ju@nugole.it
Arriva il ddl anti pro Pal: vietato criticare il governo di Netanyahu nelle scuole e nelle università, https://www.editorialedomani.it/politica/italia/ddl-antisemitismo-netanyahu-scuola-universita-gasparri-mrllziot, , Il disegno di legge sul “contrasto all’antisemitismo” presentato da Gasparri (Forza Italia) introduce obblighi di segnalazione e norme penali che equiparano le critiche allo Stato di Israele all’odio razziale. Una legge che ricorda i modelli americani di controllo politico su
Universities may hold the key to fighting misinformation... On Thursday we speak to a professor and a former student of Utrecht University about their Open-Source Global Justice Investigations Lab discussing how the lab is building critical thinking skills and leading to headline stories.
https://discord.gg/bellingcat?event=1424704897550516234
La cosa un po' triste è il ragionamento fatto dalla non-quattro-anni me: è un cartone animato che porta dei forti valori identitari tipo noi/loro, il nemico che vuole distruggerci, la Terra, la patria, il coraggio, la lotta ecc...
E mentre personalmente penso che ci sia bisogno del coraggio di lottare per una causa in questo momento, temo che chi ha deciso il palinsesto abbia in mente altre cause, per esempio far crescere bimbi forti e virili, non mollaccetti woke.
Se le cose stanno così, volevo dire che per esempio con me a suo tempo ha funzionato, essendo io cresciutA fin dall'infanzia e con molto entusiasmo forte, virile e determinatA a schifare proprio i ruoli tradizionalmente destinati alle femmmine, i vestiti da femmina, il colore rosa e l'essere femminile in genere.
Ricordo inoltre che i cattivi Vega sono quelli che vogliono conquistare il nostro mondo perché il loro l'hanno depredato di tutte le risorse e bruciato con la guerra atomica e non ci possono più vivere.
Nel generale degrado le merde vincono perché essendo merde sono credibili nel trasmettere un messaggio di merda.
Ci vedo un rimescolamento di carte e posizioni molto buio .
Non sembra che ci sia una via d'uscita con vecchi valori .
Forse , e spero , che l'unica strada percorribile ma non sicura sia ...
"Forse l’uscita dal tunnel non si trova più nei meccanismi della democrazia formale, ma in quei segnali di risveglio che stanno emergendo in tutta Europa – e in particolare in Italia – non solo nelle piazze, ma anche nelle coscienze delle persone."
Il fatto che i partiti diciamo europeisti e in generale il centro-sinistra e una certa destra moderata siano complessivamente incapaci di trovare un modo efficace di veicolare il messaggio che in questo momento le istituzioni democratiche per quanto imperfette sono la rete che ci salva il culo, ecco...questo è preoccupante.
Qui da noi in Europa occidentale la cosa funziona perché il rispetto delle istituzioni è abbastanza radicato, ma funziona a malapena e non perché il messaggio venga veicolato bene.
In alcune nazioni dell'Est, tipo la Polonia, funziona perché il sentimento anti-russo è molto forte.
Dove il sentimento anti-russo non è forte e il concetto di istituzioni democratiche è debole, tipo in Ungheria, la deriva populista è quasi inevitabile.
Serve e con urgenza un cambiamento nel modo di veicolare il messaggio.
È lampante che si sta sbagliando perché chi parla non veicola il messaggio in modo comprensibile a chi ascolta.
Questo succede perchè i contenuti del messaggio non hanno lo stesso valore per chi parla e per chi ascolta e perché chi parla non è in grado di mettersi sullo stesso piano di chi ascolta.
Chi parla spiegando che le istituzioni e l'Europa ci salvano il culo ha ragione, ma poi lo fa indicando queste immagini che rappresentano l'essenza di una burocrazia ingessata e patinata e di gente che vive nelle torri d'avorio e tutto il discorso perde sostanza.
Bisogna decidersi a tenere i piedi nel fango e farsi venire un po' di calli sulle mani, oppure si perde tutto.
Non sono le persone che sono cambiate e improvvisamente votano in massa a destra, le persone fanno esattamente quello che hanno sempre fatto: vanno in massa dietro alla sirena che canta meglio.
Fallito il tentativo di rimediare a questa cosa con l'educazione scolastica, bisogna essere la sirena che canta meglio e poi dopo riprovarci.
io: "e ma l'Amazon Prime costa un botto, è vero che hai la musica e i film..."
persona: "ah, sì, è vero che ci sono anche i film tipo Netflix"
io: "sì ma poi c'è la pubblicità oppure ti chiedono 2 euro..."
persona: "sì ma io lo tengo perché mi portano le cose il giorno dopo. Per i film ho Netflix, che però ormai fa abbastanza cagare..."
io: son d'accordo che fa cagare, ma mi taccio e lascio che vada avanti.
persona: "...e allora io sai che faccio: disdico Netflix e faccio Sky+Netflix che pago di più eh, però ho anche Sky!"
io...sposto la conversazione su altri argomenti perché ridergli in faccia pareva brutto.
Astuto eh?
Bubble's gonna burst!
OpenAI generated US$4.3 billion in revenue in the first half of 2025, according to financial disclosures to shareholders.
The artificial intelligence firm reported a net loss of US$13.5 billion during the same period, with more than half attributed to the remeasurement of convertible interest rights.
Research and development expenses were its largest cost, totaling US$6.7 billion in the first half.
(OpenAI current valuation: $500Bn.)
https://www.techinasia.com/news/openais-revenue-rises-16-to-4-3b-in-h1-2025
CRINGE OF THE DAY....
Trump's US Treasury Department mulls minting $1 coin with Trump’s image
#AureFreePress #News #press #headline #GOP #Politics #uspolitics #uspol #Trump
Summer will be three years old this month.
The thought occurred to me that many of you have been following her since she joined our family.
There have been successes, mishaps and many lessons learned these three years.
So, for all of you who have stuck with us and helped us learn how to be a good home for Summer we thank you and Summer thanks you.
#Summer #DogsOfMastodon
The Three Dead (with a #peacock and a #cat). Psalter and Hours of Bonne de Luxembourg, Jean Le Noir(?), Paris before 1349. NY, Metropolitan Museum of Art, The Cloisters 69.86, fol. 322r.
#medieval #MedievalArt
Un'interessantissima conversazione con LLM su LLM
@booboo ha scritto una sequenza di post molto interessante riferendo una conversazione con un LLM ("modello linguistico di grandi dimensioni").
Spero di non dimenticare alcun link. La sequenza inizia qui, prosegue qui, qui, qui, qui, qui, fino a concludersi qui.
La trascrivo integralmente qui di seguito per comodità.
Ho fatto alcune domande su LLM a un LLM. Condivido la conversazione perché mi ha chiarito alcuni dubbi; magari anche altri la troveranno utile.
Domanda: In che cosa sei diverso da sistemi come AlphaGo o Watson?
Risposta: Io sono un modello linguistico addestrato sul linguaggio naturale per dialogo e assistenza generale. AlphaGo era focalizzato sul Go con tecniche di reinforcement learning, mentre Watson era progettato per rispondere a domande specifiche, ad esempio in Jeopardy!. Io sono quindi più generalista e versatile.
Domanda: Quindi la differenza principale sta nel tipo di apprendimento?
Risposta: Esatto. AlphaGo usava il reinforcement learning, cioè imparava per tentativi ed errori, ottimizzando ricompense. Io invece sono addestrato con enormi quantità di testo: attraverso le reti neurali transformer imparo a prevedere e generare linguaggio. Non ottimizzo ricompense, ma riduco un errore di previsione tramite l’ottimizzazione.
Domanda: Questo significa che il tuo addestramento è come un aggiornamento bayesiano continuo?
Risposta: Non proprio. Non aggiorno continuamente credenze come nel senso classico bayesiano. Io aggiusto miliardi di parametri riducendo una funzione di perdita attraverso la discesa del gradiente. Quindi è un continuo aggiustamento tramite esempi, non un apprendimento basato su ricompense.
Domanda: Il tuo addestramento è online, cioè aggiornato dato per dato, o batch?
Risposta: È batch. Non aggiorno i pesi dopo ogni singolo esempio. I dati sono divisi in blocchi (batch), e il modello viene addestrato un po’ alla volta. È un addestramento offline.
Domanda: Quanto sono grandi questi batch?
Risposta: Possono essere grandi da qualche megabyte a decine di megabyte di testo per volta. L’intero addestramento coinvolge terabyte di dati, ma i blocchi servono a renderlo gestibile.
Domanda: Quanto dura l’addestramento di un modello così grande?
Risposta: Può richiedere settimane o mesi, a seconda della dimensione e della potenza di calcolo. I modelli con centinaia di miliardi di parametri usano enormi cluster di GPU.
Domanda: E alla fine, che cos’è davvero un modello addestrato?
Risposta: È un enorme insieme di pesi, cioè miliardi di numeri che determinano il comportamento della rete neurale. Ogni peso contribuisce a come il modello interpreta e genera linguaggio. In pratica, è un file gigantesco di parametri.
Domanda: Quindi quando una conversazione viene usata per migliorare il modello, stai cambiando i tuoi pesi in tempo reale?
Risposta: No. ChatGPT-5 non cambia i suoi pesi durante le conversazioni. I dati possono essere usati per addestrare una versione futura (per esempio ChatGPT-6), ma la versione attuale resta fissa.
Domanda: Allora cos’è il “contesto” in una conversazione con te?
Risposta: È una memoria temporanea: ogni risposta tiene conto non solo dell’ultima domanda ma anche della storia recente della conversazione. Non modifica i miei pesi, ma mi permette di mantenere coerenza. È una memoria a breve termine, che ha però un limite massimo.
Domanda: Quanto è lungo questo limite?
Risposta: Dipende dal modello, ma parliamo di migliaia di token, cioè frammenti di testo. In termini pratici corrisponde a decine o centinaia di kilobyte di testo. È sufficiente per conversazioni molto lunghe, ma se si supera la soglia, i dettagli più vecchi vengono dimenticati.
Domanda: Puoi darmi numeri? Ad esempio, quanto è grosso il contesto in byte?
Risposta: Per qualcosa come ChatGPT-5, il contesto che posso ricordare è tipicamente nell'ordine di diverse migliaia di token. Un token è una piccola unità di testo, che può essere una parola o anche solo un frammento di parola. In termini di byte, dipende un po', ma stiamo parlando magari di qualche decina o centinaia di kilobyte di testo che posso tenere in memoria per la conversazione.
Domanda: Ad esempio, ti ricordi come ho cominciato questa conversazione oggi? La prima domanda che ti ho fatto qual era?
Risposta: Sì, certo! In questo momento mi ricordo che all'inizio mi hai chiesto in che senso io, cioè ChatGPT, fossi diverso da altri tipi di intelligenze artificiali come AlphaGo o Watson. E da lì abbiamo iniziato la nostra chiacchierata.
Conclusione: chi vede gli LLM attuali come "Skynet" in Terminator non ha capito come funzionano. Gli LLM non hanno un "fine", un "obiettivo". Sono solo una relazione di input-output: dato un input, cacciano fuori un output. Non pensano, anche se fanno finta di farlo.
La confusione è alimentata dall'industria di questi LLM che usa termini come "thinking" quando in realtà non c'è alcun processo cognitivo.
Lately, some of my comics here in the Fediverse have been shared around quite a bit, which makes me totally happy.
These comics are originally a German webcomic series. I draw everything in Berlin, the German-language comic account is @islieb
The comic translations are done with attention to detail, not with ChatGPT. Almost all comics are translated by @BANobleofficial . She's British and she does a better job than I could with my school English.
Poi vale sempre la pena ricordare che gli scioperi non sono un disagio per i lavoratori per bene: i lavoratori per bene sono quelli che scioperano.
Quegli altri, quelli che insistono a sentirsi infastiditi perchè non li si lascia lavorare, dovrebbero unirsi allo sciopero invece di lamentarsi che la metro è in ritardo.
Tuffolo invece è un cucciolo perfetto, tenerosissimo e adorabile, per fortuna.