Jonathan Yu-Meng Li
- Pièce
- DMS 7105
- Téléphone
- 613-562-5800 poste 4668
- Courriel
Cette adresse e-mail est protégée contre les robots spammeurs. Vous devez activer le JavaScript pour la visualiser. - Site web
- jonli.net/
Notice biographique
Jonathan Li détient un Ph. D. du département de génie mécanique et industriel de l'Université de Toronto. Il a obtenu son baccalauréat en physique de la National Sun Yat-Sen University en 2003 et sa maîtrise en sciences et génie informatiques de l'Université McMaster en 2008.
Intérêts de recherche
Les recherches du professeur Li portent sur l'analytique, l'ingénierie financière, et la recherche opérationnelle. Au cœur de ses recherches, nous retrouvons les problèmes de gestion des risques comprenant la quantification et la modélisation du risque. Il faut des solutions robustes capables de promouvoir des décisions judicieuses influencées le moins possible par les incertitudes des phénomènes imprévisibles tels que le comportement du marché, le prix des actions, et les caractéristiques de l'offre et la demande. M. Li vise à mieux comprendre et à contrôler l'incertitude en utilisant entre autres, des outils tels les algorithmes d'optimisation et les méthodologies d'apprentissage statistique. Il s'intéresse particulièrement au domaine d'ingénierie financière et ses projets courants portent sur la gestion de portefeuille, l'évaluation des produits dérivés, et la couverture des risques. Il s'intéresse également aux projets en gestion de chaîne d'approvisionnement.
Publications au cours des 7 dernières années
Articles publiés dans des revues avec comité de lecture
- Cai, J., Li, J.Y. and Mao, T. 2024. Distributionally robust optimization under distorted expectations. Operations Research, (In Press).
- Marzban, S., Delage, E. and Li, J.Y. 2023. Deep reinforcement learning for option pricing g and hedging under dynamic expectile risk measures. Quantitative Finance, 23(10): 1411-1430.
- Marzban, S., Delage, E., Li, J.Y., Desgagne-Bouchard, J. and Dussault, C. 2023. WaveCorr: deep reinforcement learning with permutation-invariant policy networks for portfolio management. Operations Research Letters, 51(6): 680-686.
- Marzban, S., Delage, E. and Li, J.Y. 2022. Equal risk pricing and hedging of financial derivatives with convex risk measures. Quantitative Finance, 22(1): 47-73.
- Li, J.Y. 2021. Inverse optimization of convex risk functions. Management Science, 67(11): 6629-7289.
- Delage, E. and Li, J.Y. 2018. Minimizing risk exposure when the choice of a risk measure is ambiguous. Management Science, 64(1): 327-344.
- Li, J.Y. 2018. Closed-form solutions for worst-case law invariant risk measures with application to robust portfolio optimization. Operations Research, 66(6): 1457-1759.
Recherche subventionnée au cours des 7 dernières années
De-À | Source | Titre | * | ** | Rôle | Montant |
---|---|---|---|---|---|---|
2023-2029 | CRSNG | An analytic framework for the simultaneous pursuit of data-drivenness and robustness in machine learning and optimization | R | C | PI | $ 160,000 |
2023-2026 | Telfer School of Management Research Grants (SMRG) | Security and Privacy in a Decentralized Finance World | R | I | Co-PI | $ 15,000 |
2022-2024 | CRSH | Detection of Criminal Activity in Decentralized Finance | R | C | Co-PI | $ 24,889 |
2020-2023 | CRSNG | Extension of Modeling and Optimization of Risk Measures | R | C | PI | $ 47,520 |
2020-2021 | Mitacs (Brane Capital) | A Deep Risk-Sensitive Reinforcement Learning Framework for Portfolio Management | R | O | Co-PI | $ 15,000 |
2019-2020 | Mitacs (EVOVEST) | Portfolio Management by Reinforcement Learning | R | O | Co-PI | $ 30,000 |
2014-2019 | CRSNG | Modeling and Optimization of Risk Measures | R | C | PI | $ 110,000 |
LÉGENDE :
* But
C: Contrat de recherche | E: Subvention d'équipement | R : Subvention de recherche | S : Fonds de soutien | P : Subvention pédagogique | O : Autre | U : Inconnu
**Genre
C : Conseils subventionnaires | G : Gouvernements | F : Fondations | I : Financement interne UO | O : Autre | U : Inconnu
Rôle
PI = Chercheur(e) principal(e) | Co-I = Co-chercheur(e) | Co-PI = Co-Chercheur(e) principal(e)