Teoria e metodi dell'ottimizzazione
Seminari
- Giovanni Barbarino: Metodi dei piano di taglio
- Stefano De Salvo: Metodi di ottimizzazione combinatoria per problemi di finanza
- Michela Moschella: Regioni ammissibili: metodo di Zoutendijk e programmazione lineare successiva
- Stefano Massei: Ottimizzazione derivative-free: il metodo del simplesso di Nelder-Mead
- Martino Ottolini: Funzioni barriera nell'ottimizzazione vincolata
- Andrea Masciotta: Metodi di Newton con gradiente coniugato per problemi di ottimizzazione
- Tiziano Amicone: Introduzione all'ottimizzazione stocastica: metodo di decomposizione duale
- Francesco Cordoni: Un modello di ottimizzazione di portafoglio con misure di rischio
- Roberta Currao: Metodi quasi-Newton
- Marco Montechiaro: Learning machines: un'introduzione alle support vector machines
- Francesco Bartoloni: Esistenza della soluzione ottima del modello del Lago Shallow
- Antonio Distaso: Teoremi di minimax
- Gianluca Grilletti: Risoluzione di problemi discreti tramite tecniche di ottimizzazione continua: reti neurali di Hopfield
- Carmine Frascella: Metodi del sottogradiente per la determinazione di punti di sella
- Federico Conti: Metodi di Newton inesatti
- Gian Maria Negri Porzio: L'algoritmo DIRECT e le sue evoluzioni
- Gianluca Finocchio: Ottimizzazione e approssimazione stocastica
- Roberto Vertuccio: Algoritmi per il calcolo di equilibri di mercato
- Lorenzo Mori: Programmazione conica per la gestione del rischio del portafoglio
- Giorgio Mossa: Giochi su reti wireless e equilibri di Nash
- Paolo Burdo: Algoritmi prossimali
- Matteo Barucco: Implicit filtering
- Alessio Aristodemo: Algoritmi di apprendimento del secondo ordine per architetture neurali
- Jessica Bono: Il problema dell'ottimizzazione multi-portafoglio tramite gli equilibri di Nash
- Giulia Bernardini: Teoria evoluzionistica dei giochi
- Angela Mastrocinque: Algoritmi di penalizzazione esatta per l'ottimizzazione vincolata
- Riccardo Morandin: Reti di Hopfield per la risoluzione di equazioni diofantee e altri problemi di ottimizzazione combinatoria
- Marco Trevisiol: Hard clustering
- Angela Veronese: Algoritmi per la programmazione intera nonlineare convessa
- Nirvana Coppola: La dualità di Fenchel
- Luca Ferragina: Scalatura di matrici
- Cristoforo Caffi: Condizioni di ottimalità nella programmazione semi-infinita
- Andrea Scarciglia: Il metodo di Levenberg-Marquardt per la risoluzione di sistemi di equazioni nonlineari nel caso vincolato
- Matteo Sorrentino: Classificazione mediante SVM Lagrangiane
- Marco Tarsia: Modelli finanziari di programmazione quadratica per l'ottimizzazione di portafogli
- Jessica Alessandrì: File merging come problema di trasporto con costi convessi separabili
- Martina Costa Cesari: Un algoritmo di ottimizzazione vincolata in 3 fasi per la creazioni di portafogli azionari
- Marco Barberis: Alcuni risultati di esistenza ed unicità delle soluzioni ottime
- Alice Cortinovis: Ottimizzazione semidefinita: algoritmo primale-duale di riduzione del potenziale
- Simone Rotundo: Vincoli probabilistici: convessità ed approssimazione
- Giulia Ansuini: Separabilità poliedrale: aspetti teorici e computazionali
- Sabrina Forgione: Algoritmo primale-duale per la programmazione conica del second'ordine e ottimizzazione di portafogli azionari
- Roberta Venditti: Opzioni americane e problemi di complementarità lineare
- Giulio Del Corso: Metodi prossimali di Newton per l'apprendimento automatico
- Alberto Querci: Metodi incrementali del sottogradiente-prossimale
- Luigi Pagano: Condizioni di ottimalità nell'ottimizzazione semi-infinita generalizzata
- Davide Lofano: Metodi bundle per la minimizzazione regolarizzata del rischio
- Davide Marano: Un'algoritmo primale-duale per modelli lineari di equilibrio di mercati
- Francesco Paolo Maiale: Teoremi di separazione radiante e sottodifferenziale di funzioni calme
- Fabio Ferri: Metodi adattivi del gradiente stocastico e applicazioni all'apprendimento automatico on-line
- Enrico Polesel: Problemi di instradamento ottimo su reti
- Giulia Punzi: Metodi di discesa a specchio e loro accelerazione
- Lorenzo Benedini: Ottimizzazione bilivello: tecniche algoritmiche generali e caso quadratico
- Klará Lacková: Primal-dual subgradient methods for convex problems
- Matteo Cacciola: Una versione adattiva del metodo ibrido primale-duale del gradiente
- Claudia Cusseddu: Particle swarm optimization
- Fabio Brau: Metodi multi kernel per il machine learning
- Michele Rinelli: Un metodo primale-duale del punto interno per l'ottimizzazione vincolata
- Eugenio Prina: Un metodo di punto di sella per reti generative antagoniste
- Denise Massa: Sottodifferenziali approssimati
- Andrea Favilli: Problemi di flusso generalizzati con funzioni di guadagno concave
- Sara Gennari: Algoritmi per l'ottimizzazione nonlineare su reti
- Filippo Brunelli: Metodo del sottogradiente distribuito proiettato in reti multi-agente
- Giulio Benigni: Ottimizzazione robusta di portafogli con opzioni europee
- Francesco Milizia: Ottimizzazione sparsa mediante approssimazione con problemi DC
- Gianluca Di Pasquale: Complessità di alcuni problemi di ottimizzazione nonlineare
- Igor Simunec: Metodi incrementali del sottogradiente
- Vincenzo Galgano: Programmazione mista intera in crittografia
- Alessia Gentilini: Un metodo di scambio per problemi convessi di ottimizzazione semi-infinita
- Alessio Alfano: Convergenza della backpropagation tramite minimizzazione non monotona perturbata
- Martino Fortuna: Ripristino di immagini tramite la minimizzazione della variazione totale
- Morena Porzio: Tagli di concavità ed algoritmi per la minimizzazione concava
- Annalisa Mazzuca: Analisi e convergenza di due algoritmi per l'approssimazione razionale l-infinito
- Marilena Pandolfi: Metodi di Newton locale e globale del punto interno
- Luca Macchiaroli: Metodi di decomposizione e partizione nella programmazione lineare stocastica a più fasi
- Francesco Demelas: Metodo del gradiente proiettato allisciato per l'ottimizzazione semi-infinita
- Giacomo Bertolucci: Geometria della distanza: problemi ed algoritmi
- Marco Lischi: Metodo del gradiente prossimale per la ricostruzione di segnali
- Massimo Sorella: Illimitatezza ed esistenza di soluzioni ottime
- Andrea Papini: Decomposizione duale per modelli grafici
- Daniele Del Molin: Metodi per l'ottimizzazione non vincolata basati sulla regione di confidenza
- Daniel Saint-Geours: Convergenza del metodo della lagrangiana aumentata
- Francesco Mattesini: Metodi della media duale per l'apprendimento stocastico e l'ottimizzazione online
- Marco Inversi: Formulazioni variazionali e metodo di Galerkin per equazioni alle derivate parziali
- Anton Emelchenkov: Subgradient methods for support vector machines
- Elisa Di Nardo: Un algoritmo primale-duale del punto interno per la programmazione lineare
- Lorenzo Nozzoli: Il metodo ESH per programmazione nonlineare misto intera
- Filippo Quattrocchi: Un metodo del punto interno con regione di confidenza
- Vittorio D'Onofrio: Funzioni differenziabili di penalizzazione esatta
- Leandro Iafolla: Lagrangiana aumentata per problemi non lineari di ottimizzazione semidefinita
- Gianfranco Verzella: Un algoritmo di decomposizione per reti neurali feedforward
- Alessandro Pinzi: Ottimizzazione non lineare su reti con funzioni obiettivo parzialmente separabili
- Vincenzo Mariani: Il metodo incrementale dei minimi quadrati con il filtro esteso di Kalman
- Ferdinando Mazzulla: Risultati di esistenza di soluzioni ottime in problemi nonconvessi
- Simone Manti: Approssimazioni convesse ℓ1 di problemi ℓ0 nella ricostruzione di segnali
- Federico Lazzeri: Un metodo di Newton allisciato per la programmazione semi-infinita
- Natalia Montagna: Condizioni necessarie di ottimalità del secondo ordine
- Matteo Talluri: Condizioni di ottimalità del secondo ordine in presenza di vincoli astratti
- Alessandro La Farciola: Metodi iterativi Di Bregman per la minimizzazione ℓ1
- Ursula D'Elia: EXTRA: un algoritmo del gradiente per il problema del consenso
- Nikita Deniskin: Markovian traffic equilibrium
- Miriam Falletta: Metodi approssimati di Gauss-Newton per il problema nonlineare dei minimi quadrati
- Alessandro Alberti: Equità ed efficienza nell'ottimizzazione multi-portafoglio
- Lukas Seifert: The Karmarkar's interior point method
- Moreno Zito: Algoritmi distribuiti di tipo push-pull per l'ottimizzazione
- Chiara Gambicchia: Metodi del punto interno per l’ottimizzazione quadratica convessa
- Andrea Luca Mandoli: Il metodo del gradiente di Barzilai-Borwein
- Alice Battaglini: Costruzione di un algoritmo di riduzione del potenziale per la programmazione semidefinita
- Fabrizio Federico: Metodo del gradiente naturale e sue proprietà in problemi di machine learning
- Andreaceleste Toscano: Complessità nell'ottimizzazione convessa
- Alessia Perugini: Minimizzazione della distorsione di mesh nella grafica computerizzata
- Giuseppe Bruno: Portafogli multiperiodo e ottimizzazione dinamica
- Mario Correddu: Semismooth Newton-type method for bilevel optimization
- Merima Mustafic: Compressed sensing based on trust region methods
- Davide Polverino: Block coordinate descent
- Francesc Llabrés Massanet: Mercati à la Arrow-Debreu e ottimizzazione convessa
- Riccardo Tomassini: Confronto tra metodi di discesa e discesa ottimistica del gradiente nell'addestramento di reti neurali avversariali
- Silvio Martinico: Training deep and recurrent networks with Hessian-Free optimization
- Mauro Díaz Lupone: Discesa accelerata del gradiente di Nesterov e alternative
- Juan Vallaure Lozano: Un metodo di ε-rilassamento per problemi di flusso su reti con funzioni di costo separabili convesse
- Filippo Giovagnini: Modello di Black-Litterman per la selezione di asset come problema di ottimizzazione inversa
- Davide Orecchioni: Un metodo di approssimazione esterna per problemi programmazione nonlineare misto-intera
- Elia Antonini: Algoritmi a specchio per la programmazione semi-infinita
- Dario La Torre: Traffic equilibrium problems with nonadditive costs via monotone mixed complementarity problems