Giubileo 2025: un anno di speranza e rinnovamento

Il Giubileo 2025, indetto da Papa Francesco, è un evento straordinario per la Chiesa cattolica e per i milioni di pellegrini attesi a Roma. Il tema scelto, “Pellegrini di speranza”, richiama il desiderio di rinnovamento spirituale e la ricerca di pace in un mondo segnato da incertezze e difficoltà.

Il significato del Giubileo

Il Giubileo è un Anno Santo che la Chiesa celebra ogni 25 anni, offrendo ai fedeli un’opportunità di conversione, riconciliazione e indulgenza plenaria. Questa tradizione risale al 1300, quando Papa Bonifacio VIII istituì il primo Anno Santo. Nel corso della storia, sono stati proclamati anche Giubilei straordinari, come quello della Misericordia nel 2015-2016.

Uno degli elementi più significativi del Giubileo è l’apertura della Porta Santa nelle quattro basiliche maggiori di Roma: San Pietro, San Giovanni in Laterano, San Paolo fuori le Mura e Santa Maria Maggiore. Il passaggio attraverso queste porte simboleggia un cammino di rinnovamento spirituale e coincide con uno dei momenti più attesi dai pellegrini.

Eventi e pellegrinaggi

Il programma del Giubileo 2025 è ricco di celebrazioni liturgiche, incontri di preghiera e momenti di riflessione. Sono previsti eventi dedicati ai giovani, alle famiglie, ai sacerdoti e ai malati, oltre a iniziative di dialogo ecumenico e interreligioso. Uno degli appuntamenti più emozionanti è la tradizionale Via Crucis al Colosseo, così come la Settimana della Carità, dedicata all’assistenza ai bisognosi.

Il pellegrinaggio avrà un ruolo centrale, con migliaia di fedeli che percorreranno gli antichi cammini per raggiungere Roma, come la Via Francigena o il Cammino di San Francesco. Questo viaggio rappresenta non solo un’esperienza fisica, ma soprattutto interiore, un’occasione per riflettere, pregare e rafforzare la propria fede.

Roma e i preparativi per il Giubileo

La città eterna si sta preparando ad accogliere un afflusso straordinario di visitatori, con investimenti significativi per migliorare infrastrutture, trasporti e luoghi di culto. Sono stati messi in atto progetti per riqualificare strade, restaurare chiese e monumenti e potenziare i servizi dedicati ai pellegrini. Si stima che oltre 30 milioni di persone parteciperanno agli eventi giubilari, con un impatto importante sul turismo e sull’economia locale.

Una delle grandi novità di questo Giubileo sarà l’uso della tecnologia per rendere l’esperienza più accessibile. La Santa Sede ha sviluppato app ufficiali per fornire informazioni, permettere la prenotazione di eventi e guidare i pellegrini nei percorsi giubilari. Saranno disponibili anche dirette streaming delle celebrazioni e contenuti in realtà aumentata per raccontare la storia dei luoghi sacri. Una curiosità: durante il Giubileo del 2000, oltre 25 milioni di medaglie commemorative furono distribuite ai pellegrini. Anche per il 2025 è prevista la realizzazione di oggetti simbolici per ricordare l’evento!

Un’occasione di fede e speranza

Il Giubileo 2025 è molto più di un evento religioso: è un momento di unità, riflessione e speranza per milioni di persone nel mondo. Roma torna a essere il cuore della spiritualità cattolica, accogliendo pellegrini desiderosi di vivere un’esperienza di fede autentica.

Con il messaggio di “speranza” al centro dell’Anno Santo, il Giubileo sarà un’occasione per riscoprire il valore della fratellanza, della pace e della misericordia. In un periodo storico segnato da sfide globali, il pellegrinaggio a Roma rappresenterà un simbolo di rinnovamento non solo per la Chiesa ma per l’intera umanità.

Per approfondimenti, vai alla rubrica Navigare dentro la Bibbia della rivista Raggi di Luce.

Educare al pensiero critico: il ruolo (e il compito) storico del Rinascimento

La definizione dell’età della storia occidentale che va sotto il nome di Rinascimento è stata una delle questioni più dibattute dalla storiografia. Quali sono i caratteri distintivi dei due secoli, Quattrocento e Cinquecento, rispetto a ciò che li precedette e ciò che li seguì? Ha senso parlare ancora di Rinascimento come categoria storiografica se i suoi protagonisti usarono altre parole per definire sé stessi, e cioè, ad esempio, humanistae o moderni? Dallo storico francese Jules Michelet (1798-1874), che per primo lo definì in questo modo (Renaissance), fino a oggi il dibattito non si è mai interrotto.

Davanti a un oggetto storico sfuggente, la sua periodizzazione cambia a seconda della prospettiva dello spettatore. Lo storico della filosofia di formazione anglosassone o francese guarderà al Rinascimento come a un periodo di transizione pressoché ininfluente tra la grande filosofia scolastica e Cartesio. Lo storico dell’arte ne fisserà l’inizio in coincidenza dell’invenzione della prospettiva e della pittura di Masaccio. Quello dell’economia parlerà della crisi economica del Cinquecento, dell’espansione e della decadenza delle grandi compagnie mercantili, dell’economia-mondo. Lo storico della politica si concentrerà sulla debolezza del sistema politico italiano di fronte alle grandi monarchie europee, e porrà l’accento sul grande laboratorio di pensiero politico che proprio questa instabilità contribuì a generare, con al culmine il solito Niccolò Machiavelli. Lo storico della scienza avrà a mente le scoperte tecnologiche e scientifiche (Leonardo, Copernico, Galileo). E così via. 

La sfida è dunque tenere insieme elementi del periodo in cui convivono la Flagellazione di Piero della Francesca, la pace di Lodi, i Medici a Firenze, Girolamo Savonarola, la caduta di Bisanzio, la nascita dello Stato moderno, le scoperte geografiche, l’invenzione della stampa a caratteri mobili, la frattura religiosa dell’Europa. 

Dal punto di vista della progettazione didattica affrontare periodi come il Rinascimento offre il destro alla più ampia interdisciplinarietà dei contenuti. Ma cosa privilegiare in particolare tra questi aspetti? Quale il focus capace di mettere in grado chiunque di connettere fenomeni in apparenza così distanti tra loro? Quali argomenti offrire alla convinzione diffusa che il Rinascimento italiano ed europeo si collochi all’origine della modernità?

 

Una data che nei manuali viene richiamata troppo poco è il 1397. È l’anno in cui il cancelliere della Repubblica di Firenze, Coluccio Salutati, chiama il bizantino Manuele Crisolora a insegnare il greco a Firenze. Ex Oriente lux. La luce dei libri. Dei nuovi libri che Crisolora portò con sé da Costantinopoli, scritti in una lingua che l’Occidente (latino) non aveva frequentato per quasi un millennio. Tra questi vi erano i Dialoghi di Platone e la Geografia di Tolomeo, Plutarco e Luciano. 

Fu questa la vera frattura che preluse a un profondo ripensamento di certezze secolari. La conseguenza fu l’affermarsi di una propensione all’ascolto delle ragioni di una cultura altra per riconsiderare radicalmente la propria. Il fenomeno non fu uniforme né coerente. Ma non si può negare che diede un impulso decisivo alla riscrittura di modelli interpretativi della realtà in tutte le sue manifestazioni culturali.

A preparare il terreno era stato Francesco Petrarca, non quello del Canzoniere, ma l’umanista che aveva cominciato a vagliare la tradizione che lo aveva preceduto con nuovi paradigmi intellettuali. Inaugurò una filologia in senso lato, che si configura quale unico criterio intellettuale adatto a conseguire la veritas, e che non accetta mai passivamente l’autorevolezza di una fonte, ma la valuta sempre criticamente.

Ecco, sottoporre a verifica. Una delle più grandi conquiste dell’umanesimo quattrocentesco in virtù della reintroduzione del greco fu, forse, proprio questa: l’allargamento delle prospettive critiche grazie alla riemersione di un termine di confronto funzionale sia allo studio dei testi antichi, sia a sciogliere, per il suo valore di testimonianza estrinseca alla tradizione occidentale, molte incoerenze tra le fonti letterarie, filosofiche, scientifiche e religiose latine.

Tutto ciò passò capillarmente nella scuola. Rinnovare i metodi pedagogici e lo studio della lingua significò rinnovare il pensiero. Le Elegantiae di Lorenzo Valla lo dimostrarono in tutta la sua sconvolgente evidenza. Significò anche rivoluzionare la scrittura, cioè il medium della parola: la rinascita della littera antiqua è all’origine della nostra scrittura moderna; l’invenzione della stampa garantì al libro una circolazione mai vista prima, inaugurando nuove possibilità di dialogo tra i dotti d’Europa e del mondo. Il sapere uscì dai conventi e dalle aule universitarie per entrare nelle botteghe, nelle piazze, negli uffici. Oltre che dalla stampa, la diffusione fu garantita dalla grandiosa operazione di volgarizzamento dei testi classici, tanto latini quanto greci, che garantì l’accesso ai contenuti dell’alta cultura anche a chi era ignaro di latino. 

Un esempio fra i tanti? Leonardo riuscì a diventare Leonardo pur essendo «omo sanza lettere», cioè senza conoscere il latino.

Da un lato l’elaborazione di un rigoroso metodo storico di accertamento dell’autenticità del documento aveva segnato un punto di non ritorno nella storia del pensiero critico; dall’altro la sensibilità storica con cui si osservavano la profondità dei secoli passati e le civiltà scomparse aveva insegnato a comparare le diverse culture, compresa la propria. Da qui al relativismo culturale di Montaigne il passo è breve. Nasce l’idea di un’unica religione naturale comune a tutti i popoli, antichi e moderni, con un’unica verità che prende solo forme diverse sotto i diversi culti e le diverse confessioni che la venerano (Marsilio Ficino e Pico della Mirandola). Furono questi gli strumenti concettuali che presiedettero al dibattito sulla tolleranza religiosa nel pieno Cinquecento.

In passato ci fu chi sostenne che la filologia fu la vera cifra dell’umanesimo, perché rimise al centro dell’educazione dell’uomo i testi, i libri (non il libro), la ricerca delle fonti e la loro critica. Non andò lontano dal vero. I più grandi fra gli umanisti riconobbero che è nel dubbio, non nella certezza, che sta il motore del progresso e della ricerca. Si guardò al passato come a un modello non per cercare solo di riprodurlo con timore reverenziale, ma per rinnovarsi alla luce sia della propria storia che di quella dell’altro da sé. 

Per questo copie dei lavori del matematico e cartografo fiorentino Paolo dal Pozzo Toscanelli, che solo studiando la Geografia di Tolomeo aveva potuto andare oltre lo stesso Tolomeo e ipotizzare di raggiungere l’Asia attraverso l’Atlantico, finirono sulla scrivania di Cristoforo Colombo; per questo Copernico osò distruggere il sistema aristotelico-tolemaico e mutare faccia all’universo; per questo Erasmo da Rotterdam, il primo intellettuale veramente ‘europeo’, fece vedere che anche di alcune concezioni religiose che si credevano divinamente immutabili si poteva ricostruire una storia squisitamente umana; per questo Andrea Vesalio rivoluzionò l’anatomia scoprendo la circolazione del sangue e permettendosi così di infrangere il principio di autorità dei medici dell’antichità, considerati intoccabili. 

Il lascito più profondo dell’umanesimo, allora, furono davvero i dispositivi intellettuali per storicizzare la realtà umana, le sue espressioni spirituali e materiali. Con l’umanesimo l’uomo entra nella storia, scoprendone relatività e contraddizioni.

Comment bien s’informer aujourd’hui?

Surabondance d’informations, difficulté à distinguer l’information du divertissement, essor des intelligences artificielles génératives, bien s’informer n’est pas si facile. Le thème de l’édition 2025, qui se déroulera du 24 au 29 mars 2025 prochain Semaine de la presse et des médias dans l’École | Ministère de l’Education Nationale, de l’Enseignement supérieur et de la Recherche s’intitule «Où est l’info?» Téléchargez l’affiche 2 de la Semaine de la presse et des médias Cette initiative vise à aider les élèves, de la maternelle au lycée, à comprendre le système des médias, former leur jugement critique, développer leur goût pour l’actualité et à se forger une identité de citoyen éclairé. Vous l’avez compris, les organisateurs nous invitent à réfléchir et nous aident à nous orienter dans ce flux constant d’informations. Car il faut bien l’admettre, identifier ce qui constitue une véritable information ou pas demande un peu d’attention. Chaque jour, nous recevons des informations par la télévision, la radio, les journaux, et surtout Internet. Mais comment savoir si une information est vraie ou fausse? Comment reconnaître une fake news? Pendant la Semaine de la Presse et des Médias, nous apprenons à mieux comprendre le monde de l’information!

Grâce au CLEMI (Centre pour l’éducation aux médias et à l’information) Qui sommes-nous? | CLEMI – chargé de l’éducation aux médias et à l’information (ÉMI) dans l’ensemble du système éducatif français), découvrons ensemble les quatre pistes proposées pour aborder ce thème. Tout d’abord, nous allons nous poser une question simple (ou peut-être pas…): C’est quoi une info? Cette recherche nous aidera à comprendre comment reconnaître une information. Puis, nous plongerons à la découverte de l’infotainment pour ensuite analyser et différencier l’information du divertissement. Le troisième axe nous dévoilera les nouveaux formats journalistiques tels que la bande dessinée, le podcast ou les plateformes de streaming comme Twitch qui nous montreront que l’info peut s’écrire autrement. Enfin, dernier volet: l’Intelligence Artificielle. Il s’agira de comprendre comment les journalistes utilisent l’IA et apprendre comment saisir nous aussi cette opportunité. Toutes les ressources et les sessions pédagogiques sont en ligne Dossier pédagogique 2025 | CLEMI, profitons-en pour nous lancer en classe! Plutôt envie de suivre des webinaires? C’est par ici: Les Invités du CLEMI, cycle spécial Semaine de la presse et des médias dans l’Ecole | CLEMI et par là Webinaires d’accompagnement du CLEMI | CLEMI!

Cette semaine est une occasion précieuse pour nous sensibiliser aux enjeux de l’information et des médias dans notre société contemporaine. Où trouve-t-on donc les nouvelles? Les médias nous informent sur ce qui se passe dans le monde et nombreuses sont les sources d’information:

les journaux (Le Monde Le Monde.fr – Actualités et Infos en France et dans le monde, 1jour1actu Accueil – 1jour1actu.com, Mon Quotidien Mon Quotidien, le seul journal d’actualité pour les enfants de 10-14 ans), la radio et la télévision (France Info https://www.francetvinfo.fr/en-direct/tv.html, TF1, Arte) ou encore Internet et les réseaux sociaux (Facebook, TikTok, Instagram). Mais attention! Toutes les sources qui sont en ligne ne sont pas toujours fiables. Il faut bien sûr savoir les analyser et faire attention aux fake news! Une fake news est une fausse information qui peut être diffusée sur Internet dans le but de tromper les internautes. Savez-vous comment les reconnaître?

Règle 1: Le titre est trop incroyable? Si l’information semble trop surprenante, il faut la vérifier.

Règle 2: La source est inconnue? Si l’article vient d’un site inconnu, il peut être faux. Regardons bien la date de publication et vérifions qui est l’auteur de l’article.

Règle 3: Les images sont truquées? Parfois, des photos sont modifiées pour manipuler l’information. Il convient alors de comparer plusieurs sites d’informations et ne pas tout croire sur TikTok ou Instagram sans vérifier.

Savoir s’informer, c’est important! Grâce aux médias, nous comprenons mieux le monde, mais il faut être vigilant. Pendant cette Semaine de la Presse et des Médias, faisons attention aux fake news et devenons des lecteurs et lectrices avertis grâce à ces bonnes astuces! En guise de conclusion, un petit Quiz! 

 

 Quiz: Sauras-tu reconnaître une info fiable?

(Entoure la bonne réponse pour chaque question. Les réponses sont à la fin de l’article.)

  1. Tu vois une information étonnante sur TikTok. Que fais-tu?
    1. Je la partage immédiatement.
    2. Je vérifie si elle est sur d’autres sites fiables avant d’y croire.
    3. Je commente pour dire que c’est sûrement faux, sans vérifier.

 

  1. Un site inconnu annonce une nouvelle choquante. Que fais-tu?
    1. Je regarde la date, l’auteur et la source avant de la croire.
    2. Je crois tout de suite à l’information et je la partage.
    3. Je ne me pose pas de questions, toutes les infos sont vraies.

 

  1. Pourquoi faut-il se méfier des images sur Internet?
    1. Elles peuvent être retouchées ou sorties de leur contexte.
    2. Toutes les images qu’on trouve sur Internet sont vraies.
    3. Une image ne peut pas être utilisée pour tromper les gens.

 

  1. Quel est le meilleur réflexe pour vérifier une information?
    1. Chercher la même info sur plusieurs sites fiables.
    2. Regarder les commentaires sous la publication.
    3. Croire les rumeurs si elles sont partagées par beaucoup de personnes.

 

Réponses: 1.b, 2.a, 3.a, 4.a

Uno strumento per … leggere, scrivere, codificare

Cosa è la TASTIERA SILLABICA?

Una tastiera che vuole assomigliare a quella di un computer, ma di fatto non lo è. E’ una scheda (formato A4) da stampare e plastificare per ogni bambino e bambina. Presenta lettere alfabetiche e sillabe da quelle semplici a quelle complesse. Può essere utilizzata per tutto il primo anno della scuola primaria, ma anche successivamente come strumento compensativo per BES, DSA, NAI.

La tastiera in pdf

A cosa serve?

A decodificare, a codificare, a leggere, a scrivere, … a giocare con lettere e sillabe. Esempi di attività tra i materiali allegati da scaricare.

Materiali in pdf

Perché usarla?

Per facilitare e agevolare la pratica della letto-scrittura. Il suo uso facilita il riconoscimento di lettere e sillabe, aiuta a scrivere e ad esercitarsi nei primi dettati e consente la scrittura corretta.

Come usarla?

Come fosse una vera e propria tastiera o macchina da scrivere (anche se non scrive). Con il dito indice dx o sx (a seconda della dominanza dei bambini/bambine) far indicare le lettere e le sillabe pronunciate dall’insegnante. Nella scheda allegata vengono fornite indicazioni ed esempi di lavoro.

Quando usarla?

Da subito.

 

Buon lavoro a tutti i bambini e a tutte le bambine con la tastiera sillabica di Magica Matilde.

 

 

 

 

 

 

 

Che Storia! | Italiani “brava gente”?

Lo stereotipo dell’italiano buono (e magari un po’ pasticcione)

Resiste ancora oggi un’idea molto stereotipata riguardo al comportamento dell’esercito italiano durante alcuni momenti cruciali del XX secolo. Secondo questa convinzione, condivisa anche da persone con orientamenti culturali, ideologici e politici molto diversi tra loro, l’Italia sarebbe stato un paese incapace di commettere in guerra crimini paragonabili a quelli perpetrati, ad esempio, dai nazisti tedeschi nel corso della seconda guerra mondiale.

Questo luogo comune è spesso accompagnato da una visione critica – talvolta falsamente dissacrante e un po’ liquidatoria – sulle reali capacità militari italiane nei conflitti del Novecento, con un’eccezione parziale per la prima guerra mondiale (1915-1918), considerata l’unica vittoria effettiva della nazione. In sostanza, si tende ad associare le carenze nell’equipaggiamento, il limitato addestramento e la gestione tattico-strategica contraddittoria delle forze armate alla convinzione che questi elementi abbiano quasi automaticamente impedito agli italiani di compiere azioni disumane e criminali.

La narrazione ha spesso insistito sull’immagine di soldati un po’ maldestri, ma fondamentalmente “buoni” e incapaci di gesti realmente efferati. Questa visione è stata alimentata già dalla propaganda di guerra: basti pensare, ad esempio, al periodo della guerra di Libia, quando venivano diffuse canzoni leggere come Tripoli, bel suol d’amore, che contribuivano a diffondere il mito dell’italiano seduttore e grande amatore. Uno stereotipo ripreso anche durante la campagna d’Etiopia, con la celebre Faccetta nera, canzone divenuta simbolo del regime fascista, in cui si raccontava di una giovane abissina che attendeva con speranza l’arrivo dei soldati italiani, venuti ad amarla e a liberarla dalla barbarie.

Dopo la guerra, anche il cinema, la letteratura e persino i manuali scolastici hanno spesso evitato di affrontare i temi più controversi legati al comportamento dei soldati italiani sui vari fronti del Novecento. Quando questi argomenti sono stati trattati, lo si è fatto con un tono ironico o caricaturale, contribuendo a rafforzare lo stereotipo degli “italiani brava gente”.

Il colonialismo italiano in Africa e la guerra “parallela” di Mussolini hanno avuto caratteri criminali

Durante il periodo del colonialismo l’esercito italiano si è macchiato di vari crimini la cui natura e il cui dettaglio sono stati scarsamente sottolineati e, soprattutto, sono quasi del tutto assenti dalla memoria collettiva.

L’impresa di Eritrea nel 1885 e il tentativo fallito in Etiopia tra il 1895-96, sono spesso ricordati più che altro per l’esito tragico di Adua o per alcune battaglie come quella di Alba Alagi, mentre sono poco note le violenze commesse dai militari italiani inviati da Crispi nel corno d’Africa.

La conquista della Libia (1912) si distinse fin dall’inizio per un uso sproporzionato della forza da parte dell’esercito italiano. Tuttavia, fu soprattutto nei primi anni Trenta, durante il periodo fascista, che Mussolini ordinò l’eliminazione fisica delle tribù Senussi ostili al dominio coloniale italiano e, più in generale, di tutti i ribelli della Cirenaica.

I massacri furono pianificati dal generale Rodolfo Graziani (1882-1955) e dal governatore della Libia Pietro Badoglio (1871-1956). Tra il 1929 e il 1933 vennero istituiti campi di concentramento in Cirenaica, dove furono internate oltre 100.000 persone. Le popolazioni deportate furono costrette a subire condizioni disumane, trovando la morte a causa della fame o dei lavori forzati.

In Etiopia, nel 1936, l’Italia non si limitò ad attaccare senza ragione alcuna un paese riconosciuto dalla comunità internazionale membro della Società delle Nazioni. La campagna di conquista fu condotta con metodi criminali, ad esempio usando i gas velenosi e non esitando a sterminare interi villaggi. In seguito a un attentato subito dal vicerè Graziani (lo stesso che si era sporcato le mani di sangue in Libia) Addis Abeba fu messa a ferro e fuoco e si arrivò a distruggere alcuni antichi monasteri cristiani etiopi e ad assassinare i suoi monaci

Poco nota è la vicenda dell’occupazione italiana della Grecia, durante la seconda guerra mondiale, nell’ambito della cosiddetta “guerra parallela” che Mussolini volle portare avanti per non sfigurare agli occhi dell’alleato Hitler. In essa si consumarono vicende gravissime e quasi sconosciute alla maggior parte degli italiani, persino quelli più informati. È il caso dell’eccidio del villaggio di Domenikòn (1943), oppure della scelta deliberata di affamare la popolazione di Atene nel 1943/44, o degli stupri sistematici contro le donne nella provincia di Salonicco nello stesso periodo. 

Non meno criminale fu l’azione italiana in Jugoslavia, sotto la direzione di generali come Alessandro Pirzio Biroli (1877-1962) e Mario Roatta (1887-1968), che introdussero nella loro lotta contro la resistenza antifascista e antinazista, metodi come le decimazioni, le fucilazioni sommarie e gli internamenti in campi di concentramento.

Secondo lo storico Filippo Focardi (1965- ) l’esercito italiano, negli anni del fascismo, procurò la morte a 500 000 etiopi, 250 000 jugoslavi, 100 000 greci e 100 000 libici.

“Ma l’italiano non ama la guerra…”

Il generale italiano Giacomo Zanussi (1894-1966) impegnato sul fronte balcanico – il quale (dettaglio importante) dopo l’8 settembre si schierò contro i tedeschi e il regime fascista – combattendo per il governo di Badoglio e Vittorio Emanuele III, si espresse così sulla natura dei soldati italiani in quella campagna.

“Nessuno indurrà mai il nostro contadino, il nostro artigiano è il nostro operaio a cambiare costume mentalità, ad abbassarsi o, peggio, a dilettarsi al delitto, a spogliarsi di quel naturale senso di benevolenza che è indice di una civiltà millenaria e che è insito in lui com’è insito nell’animo del balcanico, non per colpa sua ma per colpa dei secoli dolorosi che gravano sulle sue spalle, l’impulso all’odio, alla vendetta, al cedimento totale e brutale di tutto se stesso alla Furia indomabile dell’istinto. […]

L’italiano fa e, talvolta fa bene, ma non ama la guerra, e meno che meno la strage. Come che sia, la guerra egli si acconcia a farla contro il nemico che gli sta in armi dinanzi: non, tranne rarissime eccezioni e per brevissimi episodi […], contro le vite o gli averi della popolazione civile”.

Si trattava di opinioni, purtroppo, ben lontane dalla verità.

Perché non si è stati capaci di fare i conti con la propria storia?

Per molti anni quanto finora detto è stato espulso dalla memoria collettiva ed è caduto in un lungo oblio. Un effetto collaterale di questa vicenda è stata la scelta, che non può essere considerata causale, di non perseguire con la dovuta coerenza gli autori degli eccidi tedeschi contro gli italiani, specialmente durante l’occupazione nazista tra il 1943 e il 1945. Celebre è il caso del cosiddetto “armadio della vergogna”, un insieme di documenti cruciali per l’istruzione di processi contro i responsabili di stragi gravissime compiute in Italia dall’esercito tedesco e dalle SS (con la complicità, quasi sempre, dei fascisti della repubblica di Salò). La documentazione fu “dimenticata” per decenni in un armadio con le ante rivolte contro il muro, in uno sgabuzzino della sede della procura generale del Tribunale supremo militare. Solo nel 1994, per puro caso, il giudice militare Antonino Intelisano (1943- ) scoprì questi documenti a lungo celati sia alla magistratura competente sia all’opinione pubblica nazionale. 

Alla luce di tutto questo possiamo quindi pensare che le ragioni di queste “amnesie” siano dovute a diverse ragioni che possono essere così riassunte.

  • La volontà di “mettere una pietra sopra” un passato doloroso, in un momento in cui si profilavano nuove tensioni geopolitiche a livello internazionale (la guerra fredda) e l’Italia e la Repubblica federale tedesca dovevano essere alleate.
  • Evitare che i processi contro i “cattivi tedeschi” facessero emergere la realtà scomoda dei crimini compiuti dai “bravi soldati italiani” contro la popolazione civile in Africa e nei Balcani.

Queste scelte ebbero quindi delle conseguenze sul modo con cui è stata letta la storia nazionale dell’intero Novecento.

Le ricostruzioni storiche sulla vicenda coloniale italiana è stata tardiva e spesso mal sopportata, come se si trattasse di una pagina poco importante, da dimenticare in fretta. O peggio da ridurre a un meritoria opera di civilizzazione. Di conseguenza non esiste una public history equilibrata su questo argomento.

In particolare l’oblio sugli eccidi italiani durante l’invasione della Grecia è stato quasi totale. La strage di Domenikòn, sopra citata, è rimasta sconosciuta fino al 2008 quando la vicenda è stata ricostruita in un documentario americano andato in onda su History Channel. 

Le vicende stesse legate al dramma del confine italo/jugoslavo e della popolazione dalmata-giuliana, sono state coinvolte in questa “rimozione”: prima con il lungo oblio sulle vicende delle foibe, poi con l’affermazione di una narrazione unilaterale sulla tragedia. Infatti, accanto al meritorio ricordo dei morti infoibati si è associato il totale oblio sui crimini italo-tedeschi contro le popolazione slave.

PER APPROFONDIRE

Potete approfondire in classe con questo Laboratorio tratto da Visione torica di S.Manca, G.Manzella e S. Variara, La Nuova Italia (2025).
Scarica il laboratorio

L’utilizzo dell’AI nell’ambito dell’imaging medico e della diagnostica oncologica

Immagina di andare in ospedale per un mal di testa persistente e di sottoporti ad una risonanza magnetica. Dopo l’esame, ti consegnano un referto insieme ad un dischetto contenente la tua risonanza. Il medico esamina l’immagine ricostruita digitalmente per interpretare i dati. Ma quello che vediamo a occhio nudo è solo la punta dell’iceberg: in realtà dietro l’immagine si nasconde una matrice di numeri con molte più informazioni di quelle immediatamente visibili.

E qui entra in gioco l’intelligenza artificiale! Questi modelli avanzati riescono a interagire direttamente con i dati grezzi delle immagini, scoprendo dettagli che sfuggono all’occhio umano.

Ma cosa può fare esattamente l’AI nell’imaging medico?

L’intelligenza artificiale sta rivoluzionando l’imaging medico con diversi contributi, vediamo quelli di maggiore sviluppo: 

  • Ricostruzione delle immagini: grazie ai modelli AI, è possibile ridurre i tempi di acquisizione delle immagini, accelerando gli esami e diminuendo l’esposizione alle radiazioni, quando presenti.
  • Identificazione automatica delle lesioni: i Computer Aided Detection Systems (CAD) evidenziano aree dell’immagine dove potrebbe essere presente una patologia. Immagina un assistente digitale che ti dice: “Ehi, guarda qui! Potrebbe esserci qualcosa da controllare.” I sistemi AI evidenziano aree sospette che il radiologo poi verifica, rendendo il suo lavoro più efficace e più veloce, permettendo così di poter analizzare molti più pazienti al giorno. 
  • Analisi quantitativa delle immagini: qui l’AI diventa davvero affascinante! L’occhio umano non può distinguere dettagli a livello di singolo pixel, ma un algoritmo AI sì. Questo permette di identificare marcatori invisibili (imaging biomarkers) utili per la diagnosi, di monitorare il/la paziente e di personalizzare le terapie. La complessità dello sviluppo di questi sistemi deriva dal fatto che un modello AI, per riuscire a notare differenze minuscole tra pixels vicini, deve essere allenato su un numero altissimo di immagini. Queste immagini devono essere sia di pazienti malati che sani, e devono essere acquisite in modo simile tra di loro. Avere a disposizione dataset così grandi non è un gioco da ragazzi, servono tanti centri che collaborano tra di loro, fondi sostanziosi, e step burocratici tutt’altro che divertenti. 

Radiomica: lasciamo parlare i numeri. 

Un campo emergente è la radiomica, che consente di estrarre informazioni quantitative dalle immagini mediche e integrarle con dati clinici, genomici e biologici. Grazie alla radiomica siamo in grado di estrarre informazioni precise dai voxels (un voxel è un pixel in tre dimensioni). Questi parametri (chiamati features) vengono prima identificati nelle immagini e poi elaborati tramite modelli statistici o reti neurali per fare previsioni utili nella diagnosi e nella cura del paziente. È come mettere insieme i pezzi di un puzzle complesso per prevedere come evolverà una malattia o quale terapia funzionerà meglio per un paziente.

Vediamo qualche esempio di progetti innovativi degli ultimi anni.

Esistono già prodotti commerciali basati su reti neurali per diagnosticare tumori o aiutare nella loro eradicazione, ma alcuni progetti di ricerca sono particolarmente promettenti. Ecco qualche esempio:

  • Prevenzione del tumore al seno: ricercatori del Massachusetts Institute of Technology (MIT, USA) hanno sviluppato un modello di deep learning capace di analizzare mammografie e predire il rischio di sviluppare un tumore nei successivi 5 anni. Questo strumento ha già analizzato circa 2 milioni di mammografie, suggerendo quando una paziente dovrebbe tornare per il prossimo controllo.
  • Analisi istologica avanzata: un altro gruppo ha creato un modello per analizzare campioni istologici di carcinomi mammari. Il sistema fornisce un punteggio numerico che colloca le pazienti su una scala di rischio ed è risultato molto accurato nel prevedere la sopravvivenza specifica per questo tipo di carcinoma. 

I tumori alla mammella sono le neoplasie più diagnosticate tra le donne, rappresentano circa il 40% dei tumori registrati nelle donne di età inferiore a 50 anni.  Se consideriamo che in Italia vengono diagnosticati circa 50.000 nuovi casi annui di carcinomi mammari possiamo capire quanto lavori di questo tipo possono avere un impatto enorme sulla cura e sulla sopravvivenza delle pazienti! 

L’AI farà sempre più parte dei nostri ospedali, ma c’è ancora molta strada da fare. 

In un mondo in cui la popolazione anziana cresce e le diagnosi di cancro aumentano, intervenire tempestivamente è cruciale per migliorare la sopravvivenza. L’imaging medico è uno strumento potente, non solo per identificare la malattia, ma anche per seguirne l’evoluzione e guidare le terapie. L’intelligenza artificiale è destinata a giocare un ruolo sempre più centrale, aiutandoci a vedere oltre ciò che appare e prendere decisioni cliniche più consapevoli.

Per permettere a questi sistemi di essere sempre più parte integrante della clinica e di essere presenti non solo nei famosi centri di ricerca, ma negli ospedali di tutto il mondo, c’è ancora tanta strada da fare. Servono in particolare fondi da dedicare alla Ricerca e Sviluppo e team interdisciplinari di specialisti e specialiste del settore.

Rubrica a cura di Generazione Stem

Biografia autrice 

Virginia Piva, Fisica specializzanda in Fisica Medica. Si occupa di fisica delle particelle applicata al campo medico, con un focus particolare sull’oncologia. Appassionata di innovazioni tecnologiche nel settore sanitario, collabora con Generazione STEM per far conoscere questo mondo e condividere l’importanza di queste tematiche attraverso la divulgazione.

La miniera di Ytterby: il luogo più chimico del mondo

Immaginate di trovarvi su una piccola isola rocciosa della Svezia, circondata da fitte foreste di conifere e affacciata sulle acque placide dell’arcipelago di Stoccolma. Qui, tra sentieri silenziosi e case di legno, sorge il villaggio di Ytterby, un luogo che a prima vista sembrerebbe del tutto insignificante, se non fosse per una delle miniere più straordinarie della storia della chimica.

Oggi, le sue gallerie abbandonate sono poco più di un ricordo, un’anonimo ingresso per il sottosuolo come ce ne sono tanti, ma nel passato questa miniera ha rivelato più elementi chimici di qualsiasi altro luogo al mondo. Eppure, in questo piccolo angolo di Svezia, tra il rumore dei picconi che scavavano la pietra e il freddo vento del Nord, è andata in scena una delle più straordinarie cacce agli elementi mai avvenute.

Per lungo tempo, Ytterby è stato un vero e proprio “luogo di culto” per i chimici, un nome che attirava studiosi da tutto il mondo. 

La vicenda iniziò nel 1787, quando Carl Axel Arrhenius, tenente dell’artiglieria svedese e appassionato di chimica, trovò un minerale nero sconosciuto in una cava locale. Arrhenius (che non va confuso con Svante Arrhenius, premio Nobel per la chimica) , convinto che la roccia contenesse tungsteno – un elemento appena scoperto – decise di inviarla al suo amico Johan Gadolin, un chimico di talento. L’analisi di Gadolin rivelò che il 38% del minerale era composto da un elemento mai identificato prima. Fu scoperto così l’ittrio, il primo di una lunga serie di elementi legati al nome della miniera di Ytterby.

Un nome, quattro elementi

Il minerale nero trovato da Arrhenius si rivelò un vero enigma per gli scienziati dell’epoca. Una volta inviato a Johan Gadolin, fu identificata una nuova sostanza mai vista prima. Per onorare il lavoro del chimico finlandese, il mineralogista Martin Heinrich Klaproth battezzò il minerale con il nome di gadolinite. Questo minerale, apparentemente senza valore per i minatori che lo scartavano come inutile, si rivelò una vera miniera di elementi chimici straordinari, dando il via a una serie di scoperte scientifiche senza precedenti.

Tra il 1794 e il 1878, in campioni di gadolinite e altri minerali estratti dalla cava di Ytterby, furono identificati diversi elementi chimici, oggi conosciuti come terre rare. In quel periodo, i chimici europei erano impegnati in una vera e propria corsa alla scoperta degli elementi, e la miniera di Ytterby divenne un punto di riferimento cruciale. Da queste rocce furono isolati erbio, terbio e itterbio, tutti derivati da analisi meticolose di minerali apparentemente indistinguibili tra loro.

Ma la storia non finì qui. Negli anni successivi, altri ricercatori continuarono a studiare i campioni di Ytterby, identificando lo scandio, l’olmio, il tullio e il gadolinio. Ogni elemento portava con sé proprietà uniche e contribuiva a espandere la nostra comprensione del mondo microscopico. Per esempio, lo scandio, isolato nel 1879 dal chimico svedese Lars Fredrik Nilson, dimostrò un comportamento chimico che colmava una lacuna importante nella tavola periodica proposta da Mendeleev.

Ciò che rende queste scoperte ancora più straordinarie è il fatto che i minerali di Ytterby fossero considerati di poco interesse commerciale dai minatori dell’epoca. Per loro, la priorità era estrarre quarzo e feldspato, materiali richiesti per la produzione di ceramica e vetro. Tuttavia, per i chimici, queste rocce contenevano tesori nascosti che richiedevano metodi di analisi sempre più sofisticati per essere portati alla luce.

 

Un problema di nomi

Oltre alla ricchezza scientifica, la miniera di Ytterby ha lasciato in eredità alla chimica un problema curioso: la confusione dei nomi. Tutto ebbe inizio quando Friedrich Wöhler riuscì a isolare l’ossido di ittrio, confermando il nome dato da Gadolin. Ma la vera confusione iniziò nel 1843, quando il chimico svedese Carl Mosander, analizzando campioni della cava, identificò due nuovi elementi. Invece di scegliere nomi legati a miti, pianeti o figure storiche, decise di rendere omaggio a Ytterby. Nacquero così il terbio e l’erbio.

Qualche decennio più tardi, il chimico francese Jean Charles Galissard de Marignac isolò un ulteriore elemento dai minerali della miniera e scelse di chiamarlo itterbio. In totale, ben quattro elementi della tavola periodica devono il loro nome a questo piccolo villaggio svedese, il cui nome, tradotto, significa semplicemente “villaggio esterno”.

Questa scelta stilistica creò già all’epoca un’enorme confusione tra gli scienziati. La somiglianza tra i nomi – ittrio, itterbio, erbio e terbio – portò a una serie infinita di errori e scambi. Per anni, campioni di un elemento vennero scambiati per un altro, e perfino chimici esperti faticavano a distinguere le loro proprietà con certezza. Una sorta di rompicapo linguistico che ancora oggi può confondere chi si avvicina alla chimica delle terre rare.

Il lascito di Ytterby

La miniera di Ytterby non è solo un luogo di scoperte passate: le terre rare che vi furono individuate sono oggi più importanti che mai. Questi elementi sono alla base della tecnologia moderna, utilizzati in tutto, dai magneti superconduttori agli smartphone, dalle turbine eoliche alle batterie per veicoli elettrici. 

Oggi, gli elementi scoperti a Ytterby e in altre miniere di terre rare sono diventati fondamentali per la tecnologia moderna. L’ittrio è impiegato nei laser e nei fosfòri delle luci a LED e degli schermi LCD. L’erbio trova applicazione nelle fibre ottiche, mentre il terbio e l’itterbio vengono utilizzati nei magneti ad alte prestazioni, fondamentali per le auto elettriche, le turbine eoliche e i dischi rigidi. Senza le terre rare, molte delle tecnologie che usiamo quotidianamente, dagli smartphone ai satelliti, non esisterebbero. La loro crescente domanda ha portato a una vera e propria “corsa alle terre rare”, con implicazioni geopolitiche e ambientali significative. Il piccolo villaggio di Ytterby, un tempo sconosciuto, ha lasciato un’eredità che oggi è al centro dell’innovazione globale.

Oggi, la miniera di Ytterby non è più in attività, ma è diventata un simbolo della chimica. Un luogo apparentemente insignificante, in un piccolo villaggio svedese, si è rivelato una chiave di volta per la scienza, cambiando la nostra comprensione degli elementi e il nostro modo di vivere. Un minerale scuro e insignificante, scartato dai minatori perché privo di valore commerciale, si è trasformato in un tesoro di conoscenza, rivelando i segreti nascosti della materia. La chimica, dopotutto, è proprio questo: l’arte di svelare l’invisibile, di trasformare il banale in straordinario. 

Materia, energia e trasformazioni

Gli elementi scoperti nella miniera di Ytterby e tutti quelli che sono seguiti, dopo aver scoperto che la caccia agli elementi era tutt’altro che finita, risultano fondamentali quindi in molte innovazioni tecnologiche. Scoprite di più sul libro “Materia, energia e trasformazioni”, un corso di Chimica per licei scientifici che coniuga rigore scientifico e innovazione didattica.

 

 

 

 

 

Hai mai sentito parlare di Ingegneria Agraria?

Il settore agrario viene comunemente associato agli agricoltori che hanno un ruolo fondamentale nel soddisfare il fabbisogno calorico della popolazione, ovvero l’energia che introduciamo attraverso il cibo. Tuttavia non sono gli unici. Infatti, dietro le quinte di un buon prodotto alimentare ci sono molteplici figure professionali, tra cui l’ingegnere agrario o l’ingegnera agraria

Di cosa si occupa un/un’ ingegnere/a agrario/a? 

L’agricoltura deve affrontare la sfida del cambiamento climatico e, contemporaneamente, continuare a soddisfare il fabbisogno alimentare di una popolazione sempre più numerosa. Per queste ragioni, possiamo considerare l’agricoltura un settore di enorme complessità.

Chi ha una formazione in ingegneria agraria può ricoprire diversi ruoli. L’Associazione Italiana di Ingegneria Agraria (AIIA) identifica ben 7 sezioni di specializzazione. 

  • Utilizzazione del suolo e delle acque: promuove il progresso nelle attività di monitoraggio e gestione dei sistemi agro-forestali. Include la gestione della risorsa idrica, la bonifica, la difesa del suolo ed anche le azioni per contrastare l’inquinamento agricolo. 
  • Costruzioni rurali, impianti e territorio: questo lavoro spazia dalla progettazione di strutture e infrastrutture per il territorio rurale alla valorizzazione del paesaggio rurale. Le tematiche principali sono l’efficienza energetica, la sicurezza ed il recupero degli edifici storici. 
  • Meccanizzazione e tecnologie per le produzioni agricole: questa sezione è incentrata sulla progettazione di nuove macchine e sull’ottimizzazione delle prestazioni. I meccanici sono concentrati sulla riduzione dell’impatto ambientale, economico e sociale, migliorando la performance delle macchine. 
  • Elettrificazione agricola ed utilizzazione dell’energia: è un ambito molto interessante che modifica il ruolo dell’agricoltura da semplice utente a produttore di energia da fonti agro-forestali-industriali. 
  • Ergonomia ed organizzazione del lavoro: anche in ambito agrario è fondamentale migliorare le condizioni di lavoro e la sicurezza degli operatori. Per farlo, è opportuno ottimizzare la gestione aziendale e la logistica dei settori coinvolti. 
  • Macchine e impianti per la trasformazione delle produzioni agricole: la filiera agricola non si ferma in campo ma prosegue anche nell’industria agroalimentare. Questa sezione ha come obiettivo quello di ottimizzare macchine e impianti, nonché tutto il processo di trasformazione e conservazione dei prodotti. 
  • Tecnologie informatiche e delle comunicazioni: è l’ambito che utilizza l’informatica per migliorare la qualità e la sostenibilità del settore. Si focalizza su tecnologie come sensoristica avanzata, automazione, robotica, intelligenza artificiale, sistemi di supporto alle decisioni, e agricoltura di precisione.

Come si diventa ingegnere/a agrario/a? 

Si tratta di una figura professionale ibrida che raggruppa sia le competenze dell’agronomo sia quelle dell’ingegnere. Per questo motivo sono considerati ingegneri agrari sia gli agronomi specializzati in materia sia i laureati in ingegneria civile ed ambientale.  

È fondamentale scegliere un percorso di studi che sia formativo nel settore agro-forestale ed ambientale con un approccio ingegneristico. Ad esempio, io ho studiato Scienze e Tecnologie Agrarie in triennale, iniziando a specializzarmi in meccanica agraria attraverso la tesi. Poi, per ottenere una vera e propria specializzazione in ingegneria agraria esistono dei corsi di laurea magistrale “ibridi” che combinano ingegneria e agraria. 

Ma l’intelligenza artificiale è utile per l’agricoltura? 

L’intelligenza artificiale sta rivoluzionando il settore agricolo, migliorando l’efficienza, la sostenibilità e la produttività. Gli algoritmi di machine learning sono impiegati per analizzare enormi quantità di dati provenienti da sensori, droni e satelliti. L’analisi dei dati è fondamentale per ottenere previsioni accurate sulle condizioni climatiche e sullo stato di salute delle colture. Inoltre, l’automazione basata sull’intelligenza artificiale permette di realizzare macchine agricole autonome e capaci di eseguire le operazioni in modo preciso. Ad esempio, è possibile ridurre la quantità di agrofarmaci, utilizzando dei sensori che rilevano in tempo reale la presenza di malattie. Questo contribuisce anche a ridurre l’impatto ambientale dell’agricoltura e migliorare la sostenibilità della filiera.

Rubrica a cura di Generazione Stem

Biografia autrice 

Luana Centorame è laureata magistrale in scienze agrarie presso l’Università Politecnica delle Marche e ha conseguito il master in agricoltura di precisione all’Università di Teramo in collaborazione con numerose università, istituti di ricerca e aziende.

Attualmente è dottoranda in scienze agrarie presso il Dipartimento di Scienze Agrarie, Alimentari e Ambientali dell’UNIVPM. Il topic del dottorato è la meccanica agraria con un particolare indirizzamento all’agricoltura di precisione. Nel 2024 è stata ospite della Scuola Universitaria Professionale della Svizzera Italiana (SUPSI) per lo sviluppo di algoritmi di intelligenza artificiale applicati all’agricoltura.