Organized by Glaydston Bento
------------------------------------------------------------------------------------------------------------------------------------------
The seminars in this semester will be held in the Lecture Room of IME/UFG, unless otherwise stated. All interested are very welcome to attend.
------------------------------------------------------------------------------------------------------------------------------------------
Date: April 27
Speaker: Tiago Mota
Title: Convergence of the Unconstrained Steepest Descent Method for Multicriteria Optimization
Abstract: In this presentation, we discuss the steepest descent method for multicriteria optimization, originally introduced by Fliege and Svaiter in [Math. Methods Oper. Res., 51 (2000), pp. 479-494]. We demonstrate that the full convergence result proposed and analyzed by Bento et al. in [Eur. J. Oper. Res., 235 (2014), pp. 494-502] can be extended to a wider range of optimization problems, including semi-algebraic (or, more generally, definable on an o-minimal structure) minimization. Specifically, the model for the Psychology's self-regulation problem via variational rationality approach can be applied to more general situations than those covered by quasi-convex problems. Additionally, we establish the convergence rate of the method.
________________________________________________________________
Date: May 04
Speaker: Leandro Prudente
Title: A Generalized Conditional Gradient Method for Multiobjective Composite Optimization Problems
Abstract: In this talk, we deal with multiobjective composite optimization problems that consist of simultaneously minimizing several objective functions, each of which is composed of a combination of smooth and non-smooth functions. To tackle these problems, we propose a generalized version of the conditional gradient method, also known as Frank-Wolfe method. The method is analyzed with three step size strategies, including Armijo-type, adaptive, and diminishing step sizes. We establish asymptotic convergence properties and iteration-complexity bounds, with and without convexity assumptions on the objective functions. Numerical experiments illustrating the practical behavior of the methods are presented.
----------------------------------------------------
Date: May 11
Speaker: Erik Papa
Title: Convergence analysis of a generalized proximal algorithm for multiobjective quasiconvex minimization on Hadamard manifolds
Abstract: In this talk we introduce a generalized inexact scalarized proximal point algorithm to find Pareto-Clarke critical points and Pareto efficient solutions of quasiconvex multivalued functions defined on Hadamard manifolds considering vectorial and scalar errors to find a critical point of the regularized proximal function in each iteration. Under some assumptions on the problem, we obtain the global convergence of the sequence to a Pareto-Clarke critical point and assuming an extra condition on the proximal parameters we establish convergence to a Pareto efficient solution, approximately linear/superlinear rate of convergence. In the convex case, we prove the convergence to a Pareto efficient solution point.
-------------------------------------------------
Title: Revisitando a Propriedade de Kurdyka-Lojasiewicz: Convergência Global e Taxas de Convergência de Métodos de Descida
Abstract: Nesta palestra apresentamos resultados baseados em dois trabalhos, a saber, Absil, et al. in [“Convergence of the Iterates of Descent Methods for Analytic Cost Functions”, SIAM J. Optim., 16.2 (2005), 531-547] e Khanh et al. in [“Inexact Reduced Gradient Methods in Nonconvex Optimization”, pre-print: arXiv:2204.01806]. Além de revisitarmos algumas classes de funções que satisfazem a assim denominada propriedade de Kurdyka-Lojasiewicz (abreviadamente propriedade KL) num sentido mais amplo, e a evolução de sua aplicabilidade, discutimos duas versões dela que desempenham um papel crucial na análise de convergência de métodos de busca linear. Absil(2005) propôs um par de “condições fortes de descida” que permeiam as principais propriedades dos iterados de um algoritmo numérico de descida, e que levam à convergência a um único ponto limite para uma função custo analítica. Em seguida, apresentamos um teorema de Khanh(2022) que estabelece a taxa de convergência para o método de descida com busca linear em configurações não convexas sob a propriedade KL (é uma questão importante que tem recebido atenção crescente recentemente) e a limitação dos tamanhos dos passos a partir de 0.
--------------------------------------------
Date: June 01 (Continuação do seminário do dia 25/05)
Title: Revisitando a Propriedade de Kurdyka-Lojasiewicz: Convergência Global e Taxas de Convergência de Métodos de Descida
Abstract: Nesta palestra apresentamos resultados baseados em dois trabalhos, a saber, Absil, et al. in [“Convergence of the Iterates of Descent Methods for Analytic Cost Functions”, SIAM J. Optim., 16.2 (2005), 531-547] e Khanh et al. in [“Inexact Reduced Gradient Methods in Nonconvex Optimization”, pre-print: arXiv:2204.01806]. Além de revisitarmos algumas classes de funções que satisfazem a assim denominada propriedade de Kurdyka-Lojasiewicz (abreviadamente propriedade KL) num sentido mais amplo, e a evolução de sua aplicabilidade, discutimos duas versões dela que desempenham um papel crucial na análise de convergência de métodos de busca linear. Absil(2005) propôs um par de “condições fortes de descida” que permeiam as principais propriedades dos iterados de um algoritmo numérico de descida, e que levam à convergência a um único ponto limite para uma função custo analítica. Em seguida, apresentamos um teorema de Khanh(2022) que estabelece a taxa de convergência para o método de descida com busca linear em configurações não convexas sob a propriedade KL (é uma questão importante que tem recebido atenção crescente recentemente) e a limitação dos tamanhos dos passos a partir de 0.
------------------------------------------
Date: June 22
Speaker: Maurício Louzeiro
Title: Fenchel Duality and a Separation Theorem on Hadamard Manifolds
Abstract: In this talk, we introduce a definition of Fenchel conjugate and Fenchel biconjugate on Hadamard manifolds based on the tangent bundle. Our definition overcomes the inconvenience that the conjugate depends on the choice of a certain point on the manifold, as previous definitions required. On the other hand, this new definition still possesses properties known to hold in the Euclidean case. It even yields a broader interpretation of the Fenchel conjugate in the Euclidean case itself. Most prominently, our definition of the Fenchel conjugate provides a Fenchel--Moreau theorem for geodesically convex, proper, lower semicontinuous functions. In addition, this framework allows us to develop a theory of separation of convex sets on Hadamard manifolds, and a strict separation theorem is obtained.
----------------------------------------------
Title: Método Ponto Proximal: Regularização, Complexidade e Eficiência Computacional
Abstract: Neste Seminário consideraremos um problema de otimização cuja função objetivo é a soma de uma função diferenciável com uma função convexa e apresentaremos um método ponto proximal para resolver este problema. Discutiremos a complexidade por iteração deste método e estratégias para melhorar seu desempenho computacional.
----------------------------------------------
Title: Método do Ponto Proximal para Funções Quase Convexas em Variedades Riemannianas com Curvatura Seccional Limitada Superiormente
Abstract: Nesta palestra apresentamos uma extensão da convergência do método do ponto proximal para funções quase convexas em variedades Riemannianas completas de dimensão finita. Provamos inicialmente que, no caso geral, isto é quando a função objetivo é própria e semicontínua inferior, cada ponto de acumulação da sequência gerada pelo método, se existir, é um ponto crítico da função. Logo, sob as hipóteses de que a curvatura seccional da variedade é limitada superiormente por alguma constante positiva, a função é quase convexa e Lipschitz contínua e o ponto inicial no algoritmo proximal tem uma condição de proximidade, obtemos a convergência do algoritmo para um ponto crítico.
----------------------------------------------
Date: July 27
Speaker: Paulo Cesar
Title: O algoritmo Broyden quasi-Newton tipo Secante com projeção inexata viável para resolver equações generalizadas mistas, com restrição
Abstract:
Estamos interessados em resolver o problema: Encontrar x ∈ C tal que f (x) + g(x) + F (x) ∋ 0, onde f : Ω → R^n é uma função continuamente diferenciável, g : Ω → R^n é uma função contínua não necessariamente diferenciável, Ω ⊆ R^n é um conjunto aberto, C ⊂ Ω é fechado e convexo, F : R^n ⇒ R^n é uma aplicação ponto-conjunto com gráfico fechado, não-vazio.
O objetivo nesse seminário é fazer uma revisão inicial contextualizando e relembrando papers anteriores, e também expor algumas dificuldades na transposição de ideias para o método atual.
----------------------------------------------
Date: August 03
Speaker: Paulo Cesar (Continuação do seminário do dia 27/07)
Title: O algoritmo Broyden quasi-Newton tipo Secante com projeção inexata viável para resolver equações generalizadas mistas, com restrição
Abstract:
Estamos interessados em resolver o problema: Encontrar x ∈ C tal que f (x) + g(x) + F (x) ∋ 0, onde f : Ω → R^n é uma função continuamente diferenciável, g : Ω → R^n é uma função contínua não necessariamente diferenciável, Ω ⊆ R^n é um conjunto aberto, C ⊂ Ω é fechado e convexo, F : R^n ⇒ R^n é uma aplicação ponto-conjunto com gráfico fechado, não-vazio.
O objetivo nesse seminário é fazer uma revisão inicial contextualizando e relembrando papers anteriores, e também expor algumas dificuldades na transposição de ideias para o método atual.
----------------------------------------------
Date: August 10
Speaker: Claudemir
Title:
_____________________________________
Schedule:
April
27 - Tiago Mota
May
04 - Leandro Prudente
11 - Érik Papa
25 - Claudemir/Glaydston
June
01 - Glaydston/Claudemir
15 - Jefferson Melo
22 - Érik Papa
29 - Orizon Ferreira
July
02 - Tiago Mota
27 - Paulo Cesar
August
03 - Érik Papa
10 - Claudemir