Robotica, audio computing e intelligenza artificiale generativa. Il progetto MUSIC4D riaccende il laboratorio internazionale dedicato alle tecnologie musicali avanzate. Tra gli obiettivi il raggiungimento di una comunità potenziale di oltre 4.000 tra studenti, docenti e personale tecnico-amministrativo dei Conservatori.
Riprendono le attività dell’Alta Formazione “Intelligenza Artificiale e Musica Digitale”, promossa nell’ambito del progetto MUSIC4D e dedicata allo studio delle nuove tecnologie applicate alla produzione sonora. Avviata lo scorso 19 febbraio, l’iniziativa propone un ciclo di incontri in modalità sincrona e asincrona rivolto alla comunità accademica e artistica, e mirati a sviluppare competenze nell’uso di strumenti avanzati di elaborazione del suono, composizione assistita dal computer e intelligenza artificiale applicata nel settore musicale a 360°. L’obiettivo è quello di riuscire a coinvolgere una platea di 4.000 partecipanti, rendendo l’eccellenza tecnologica un patrimonio condiviso.
Come da programma, si ripartirà giovedì 20 marzo con il professor Francesco Pupo che terrà una lezione introduttiva, pensata per inquadrare i contenuti del percorso e preparare gli utenti agli approfondimenti successivi. Le lezioni riprenderanno ufficialmente il 24 marzo e proseguiranno fino al 21 maggio, con una programmazione che alternerà momenti di studio teorico e attività applicative.
Nel corso delle settimane saranno affrontati diversi ambiti di ricerca e sperimentazione: dall’analisi del segnale audio ai sistemi di sintesi e processamento del suono, fino alla composizione assistita dal computer e alle applicazioni dell’intelligenza artificiale nei processi creativi e produttivi. La conduzione didattica sarà affidata ai docenti Francesco Pupo, Riccardo Sarti, Sandro Mungianu, Luca Bimbi, Francesco La Camera, Caterina Perri e Rashmi Chawla, studiosi e ricercatori impegnati nei campi della musica elettronica, delle tecnologie del suono e dell’intelligenza artificiale applicata ai sistemi progettuali. Il loro apporto garantirà un’impostazione interdisciplinare, mettendo a disposizione strumenti metodologici e operativi per comprendere l’evoluzione delle tecnologie digitali applicate al suono.
Un progetto, dunque, con il quale MUSIC4D rafforza il proprio ruolo come laboratorio di innovazione tecnologica, contribuendo allo sviluppo di nuovi modelli formativi capaci di connettere ricerca scientifica, creatività ed evoluzione delle competenze nei Conservatori.
LINK PER L’ACCESSO AI CORSI:
https://mooc.unical.it/course/index.php?categoryid=8
PROGRAMMA DIDATTICO
Contenuti, struttura e calendario delle Attività Formative
- FONDAMENTI DELL’INTELLIGENZA ARTIFICIALE, SISTEMI INTELLIGENTI E ROBOTICA (marzo)
Il corso inizia sotto la guida di Francesco Pupo, con focus sulla comprensione teorica dell’IA generativa.
- 20 marzo – dalle ore 17:30 – “Dalle reti neurali ai modelli di deep learning”;
- 24 marzo – dalle ore 17:30 – “Architetture generative e modelli transformer”;
- 27 marzo – dalle ore 17:30 – “Apprendimento per rinforzo”.
2. FONDAMENTI DEL SEGNALE AUDIO, ANALISI ED ELABORAZIONE DEL SEGNALE TECNICHE DI SINTESI DEL SUONO (Fine marzo – metà aprile)
In questa fase, i docenti Sarti, La Camera e Bimbi introducono gli aspetti tecnici del suono.
- 30 marzo – dalle ore 17:30 – “Introduzione ai segnali e alla catena elettroacustica del suono”;
- 31 marzo – dalle ore 17:30 – “Campionamento e quantizzazione”;
- 1 aprile – dalle ore 17:30 – “Analisi in frequenza e trasformazioni di dominio”;
- 13 aprile – dalle ore 17:30 – “STFT (Trasformata di Fourier a tempo breve), windowing e codifica audio”;
- 14 aprile – dalle ore 17:30 – “Filtri digitali”;
- 15 aprile – dalle ore 17:30 – “Filtri del primo e del secondo ordine”;
- 16 aprile – dalle ore 17:30 – “Filtri avanzati”;
- 17 aprile – dalle ore 17:30 – “Effetti audio e processori di dinamica”;
- 20 aprile – dalle ore 17:30 – “Sintesi spettrale e per modulazione”;
- 21 aprile – dalle ore 17:30 – “Tecniche di sintesi per modellazione fisica e algoritmo di Karplus–Strong”.
3. SINTESI MUSICALE E COMPOSIZIONE ASSISTITA (da fine aprile a metà maggio)
Il focus si sposta sulla creazione sonora e l’integrazione con i professori Perri, Pupo, Mungianu e Chawla.
- 28 aprile – dalle ore 17:30 – “Prompt engineering: fondamenti e tecniche avanzate”;
- 29 aprile – dalle ore 17:30 – “Composizione assistita dal computer e intelligenza artificiale musicale”;
- 30 aprile – dalle ore 17:30 – “L’IA come supporto al processo compositivo”;
- 4 maggio – dalle ore 17:30 – “Orchestrazione virtuale”;
- 5 maggio – dalle ore 17:30 – “Metodo frame-by-frame per musica e immagini”;
- 6 maggio – dalle ore 17:30 – “Workflow audio-video in DAW professionali”;
- 14 maggio – dalle ore 17:30 – “TuttiBot – strumento di valutazione”;
- 15 maggio – dalle ore 17:30 – “Interazione uomo-robot (HRI)”.
4. PROJECT WORK: SISTEMA MUSICALE BASATO SU INTELLIGENZA ARTIFICIALE (seconda metà di maggio)
Nella fase conclusiva del programma è previsto un workshop intensivo, coordinato dai professori Pupo, Sarti e Mungianu, articolato in sessioni operative dedicate alla progettazione del sistema, allo sviluppo del core di IA, all’integrazione audio e alle fasi di rendering finale.
- 18 maggio – dalle ore 17:30 – “Definizione concettuale e progettazione del sistema”;
- 19 maggio – dalle ore 17:30 – “Sviluppo del nucleo IA e integrazione dei sistemi audio”;
- 20 maggio – dalle ore 17:30 – “Ottimizzazione e rendering finale”;
- 21 maggio – dalle ore 17:30 – “Presentazione finale e revisione dei risultati”.
IL TEAM ACCADEMICO E SCIENTIFICO
Profili, competenze e ambiti di ricerca
- Francesco Pupo: Professore presso l’Università della Calabria, esperto di sistemi intelligenti e robotica, è il Direttore scientifico del progetto MUSIC4D, dove si occupa dell’integrazione tra Intelligenza Artificiale generativa e processi creativi musicali.
- Caterina Perri: Ricercatrice e ingegnere presso l’Università della Calabria, specializzata in AI ed educazione; collabora al progetto MUSIC4D focalizzandosi sulle piattaforme di interazione in tempo reale tra esseri umani, robotica e dispositivi IoT.
- Sandro Mungianu: Docente di Multimedialità presso il Conservatorio di Cagliari, è un esperto di composizione assistita e produzione audio-video avanzata. All’interno di MUSIC4D, guida i moduli su orchestrazione virtuale, workflow in DAW professionali e l’integrazione dell’IA come supporto creativo al processo compositivo.
- Riccardo Sarti: Ingegnere elettronico e musicista, è docente di Informatica Musicale presso il Conservatorio di Sassari e vanta una lunga esperienza come ingegnere del suono ed esecutore nell’ambito della musica contemporanea ed elettroacustica.
- Luca Bimbi: Sound designer, ingegnere del suono e docente di Elettroacustica, è autore di importanti guide tecniche su software come Logic Pro e Csound, con una solida carriera nella consulenza e produzione per prestigiosi enti musicali internazionali.
- Francesco La Camera: Esperto in restauro audio e conservazione dei beni sonori con oltre trent’anni di esperienza, ha lavorato come ingegnere del suono orchestrale per Andrea Bocelli e insegna in diverse istituzioni di alta formazione.
- Rashmi Chawla: Docente presso JC Bose University, YMCA, India, ed esperta di Interazione Uomo-Robot (HRI), coordina lo sviluppo di “TuttiBot”, uno strumento avanzato per la valutazione e il monitoraggio dei processi nel progetto MUSIC4D.