Articolo tratto da “Machine learning-based prediction of tear osmolarity for contact lens practice” di I. K. Garaszczuk et al.
A cura di Rossotto Marco
Tempo di lettura: 3 min
Disclaimer
Il Team del BOOM Blog desidera chiarire che non ha alcun interesse commerciale o finanziario nei confronti dei prodotti menzionati. Il nostro unico obiettivo è fornire informazioni accurate e imparziali ai lettori, in modo da aiutarli a prendere decisioni consapevoli in base alle proprie esigenze. Ricordiamo inoltre che ogni persona potrebbe avere esperienze diverse con i prodotti menzionati, poiché le opinioni individuali possono variare. Prima di acquistare qualsiasi prodotto, si consiglia di effettuare ricerche aggiuntive e di prendere in considerazione diverse fonti di informazione.
Uno studio rivoluzionario ha dimostrato come l'intelligenza artificiale (IA) possa essere utilizzata per prevedere l'osmolarità lacrimale, un parametro fondamentale per la salute oculare e l'adattamento delle lenti a contatto.
L'osmolarità lacrimale, un indicatore della concentrazione di sali e altre sostanze nelle lacrime, è notoriamente difficile da misurare con precisione. Tuttavia, è un fattore chiave nella valutazione della secchezza oculare indotta dalle lenti a contatto, una condizione comune che può causare disagio e portare all'interruzione dell'uso delle lenti.
Lo studio, condotto da un team di ricercatori all'avanguardia, ha esplorato l'utilizzo di tecniche di apprendimento automatico per stimare l'osmolarità lacrimale in modo non invasivo e accurato. I ricercatori hanno analizzato i dati di 175 partecipanti, principalmente portatori di lenti a contatto morbide, e hanno valutato una serie di parametri clinici, tra cui:
Sintomi: indice delle malattie della superficie oculare (OSDI) e questionario sull'occhio secco a 5 elementi (DEQ-5)
Film lacrimale: altezza del menisco lacrimale (TMH) e tempo di rottura del film lacrimale non invasivo cheratometrico (NIKBUT)
Salute oculare: arrossamento oculare, colorazione con fluoresceina corneale e congiuntivale e perdita delle ghiandole di Meibomio.
I risultati dello studio sono entusiasmanti. I modelli di apprendimento automatico avanzati si sono dimostrati in grado di prevedere l'osmolarità lacrimale con un'accuratezza fino all'80%, superando nettamente le prestazioni della semplice regressione lineare.
I principali predittori dell'osmolarità sono risultati essere: NIKBUT, TMH, arrossamento oculare, copertura delle ghiandole di Meibomio e il questionario DEQ-5. Questi risultati evidenziano l'importanza di una valutazione completa della salute oculare per una stima precisa dell'osmolarità lacrimale.
Le implicazioni di questa ricerca sono rivoluzionarie. L'integrazione dell'IA nella pratica clinica delle lenti a contatto potrebbe portare a:
Prescrizioni di lenti a contatto più personalizzate e ottimizzate basate sulla valutazione individuale dell'osmolarità lacrimale e del rischio di secchezza oculare.
Diagnosi precoce e accurata di condizioni come l'occhio secco, permettendo un intervento tempestivo e una migliore gestione della salute oculare.
Miglioramento del comfort e della soddisfazione dei portatori di lenti a contatto, riducendo l'incidenza di secchezza oculare e disagio.
Lo studio apre la strada a nuove e promettenti applicazioni dell'IA in campo oftalmologico. L'utilizzo di modelli di apprendimento automatico per la valutazione non invasiva dell'osmolarità lacrimale e la diagnosi precoce dell'occhio secco rappresenta un passo importante verso una migliore salute oculare e una migliore esperienza con le lenti a contatto.
Per un approfondimento completo si rimanda all'articolo.
Bibliografia
1. E. R. Dowski and W. T. Cathey, “Extended depth of field through wave-front coding,” Appl. Opt. 34, 1859–1866 (1995). [CrossRef]
2. W. T. Cathey and E. R. Dowski, “New paradigm for imaging systems,” Appl. Opt. 41, 6080–6092 (2002). [CrossRef]
3. J. N. Mait, G. W. Euliss, and R. A. Athale, “Computational imaging,”Adv. Opt. Photonics 10, 409 (2018). [CrossRef]
4. U. Akpinar, E. Sahin, M. Meem, et al., “Learning wavefront coding for extended depth of field imaging,” IEEE Trans. Image Process 30, 3307–3320 (2021). [CrossRef]
5. B. Huang, W. Wang, M. Bates, et al., “Three-dimensional super-resolution imaging by stochastic optical reconstruction microscopy,” Science 319, 810–813 (2008). [CrossRef]
6. M. F. Juette, T. J. Gould, M. D. Lessard, et al., “Three-dimensional sub-100 nm resolution fluorescence microscopy of thick samples,” Nat. Methods 5, 527–529 (2008). [CrossRef]
7. S. R. P. Pavani, M. A. Thompson, J. S. Biteen, et al., “Three-dimensional, single-molecule fluorescence imaging beyond the diffraction limit by using a double-helix point spread function,” Proc. Natl. Acad. Sci. USA 106, 2995–2999 (2009). [CrossRef]
8. C. Maurer, S. Khan, S. Fassl, et al., “Depth of field multiplexing in microscopy,” Opt. Express 18, 3023–3034 (2010). [CrossRef]
9. H. Kirshner, F. Aguet, D. Sage, et al., “3-D PSF fitting for fluorescence microscopy: implementation and localization application,” J. Microsc. 249, 13–25 (2012). [CrossRef]
10. L. von Diezmann, Y. Shechtman, and W. E. Moerner, “Three-dimensional localization of single molecules for super-resolution imaging and single-particle tracking,” Chem. Rev. 117, 7244–7275 (2017). [CrossRef]
11. A. Levin, R. Fergus, F. Durand, et al., “Image and depth from a conventional camera with a coded aperture,” ACM Trans. Graph.26 (2007). [CrossRef]
12. P. Trouvé, F. Champagnat, G. L. Besnerais, et al., “Passive depth estimation using chromatic aberration and a depth from defocus approach,” Appl. Opt. 52, 7152–7164 (2013). [CrossRef]
13. Q. Guo, Z. Shi, Y.-W. Huang, et al., “Compact single-shot metalens depth sensors inspired by eyes of jumping spiders,” Proc. Natl. Acad. Sci. USA 116, 22959–22965 (2019). [CrossRef]
14. A. Aristov, B. Lelandais, E. Rensen, et al., “ZOLA-3D allows flexible 3D localization microscopy over an adjustable axial range,” Nat. Commun. 9, 2409 (2018). [CrossRef]
15. S. Jia, J. C. Vaughan, and X. Zhuang, “Isotropic three-dimensional super-resolution imaging with a self-bending point spread function,” Nat. Photonics 8, 302–306 (2014). [CrossRef]
16. W. T. Chen and F. Capasso, “Will flat optics appear in everyday life anytime soon?” Appl. Phys. Lett. 118, 100503 (2021). [CrossRef]
17. K. P. Thompson and J. P. Rolland, “Freeform optical surfaces: a revolution in imaging optical design,” Opt. Photonics News 23(6), 30–35 (2012). [CrossRef]
18. F. Fang, X. Zhang, A. Weckenmann, et al., “Manufacturing and measurement of freeform optics,” CIRP Ann. 62, 823–846 (2013). [CrossRef]
19. R. Pérez-Prados, D. P. Piñero, R. J. Pérez-Cambrodí, et al., “Soft multifocal simultaneous image contact lenses: a review,” Clin. Exp. Optom. 100, 107–127 (2017). [CrossRef]
20. J. L. Alio, A. B. Plaza-Puche, R. Férnandez-Buenaga, et al., “Multifocal intraocular lenses: an overview,” Surv. Ophthalmol. 62, 611–634 (2017). [CrossRef]
21. R. Rampat and D. Gatinel, “Multifocal and extended depth-of-focus intraocular lenses in 2020,” Ophthalmology 128, e164–e185 (2021). [CrossRef]
22. J. P. Jorge and L. Alió, eds., Multifocal Intraocular Lenses, Essentials in Ophthalmology (Springer International Publishing, 2019).
23. E. Nov, A. Rubowitz, N. Dar, et al., “Visual performance of a novel optical design of a new multifocal intraocular lens,” J. Refract. Surg. 38, 150–157 (2022). [CrossRef]
24. K. Petelczyc, S. Bará, A. C. López, et al., “Contrast transfer characteristics of the light sword optical element designed for presbyopia compensations,” J. Eur. Opt. Soc.: Rapid Publications 6, 11053 (2011). [CrossRef]
25. A. Mira-Agudelo, W. Torres-Sepúlveda, J. F. Barrera, et al., “Compensation of presbyopia with the light sword lens,” Invest. Opthalmol. Vis. Sci. 57, 6870 (2016). [CrossRef]
26. J. P. Wann, S. Rushton, and M. Mon-Williams, “Natural problems for stereoscopic depth perception in virtual environments,” Vis. Res. 35, 2731–2736 (1995). [CrossRef]
27. L. Marran and C. Schor, “Multiaccommodative stimuli in VR systems: problems & solutions,” Hum. Factors 39, 382–388 (1997). [CrossRef]
28. Y. Zhou, J. Zhang, and F. Fang, “Vergence-accommodation conflict in optical see-through display: Review and prospect,” Results Opt. 5, 100160 (2021). [CrossRef]
29. L. Jones and T. Clutterbuck, “Multifocal ophthalmic lenses,” PCT patent application 10/027,602 (20 December 2001).
30. L. Galinier, “Spiral dioptre with meridians of different optical power,” U.S. patent US20220244569A1 (4 August 2022).
31. J. W. Goodman, Introduction to Fourier Optics (Roberts & Company, 2005).
32. J. Schmidt, Numerical Simulation of Optical Wave Propagation with Examples in MATLAB (SPIE, 2010).
33. S. Coy, “Choosing mesh spacings and mesh dimensions for wave optics simulation,” Proc. SPIE 5894, 589405 (2005). [CrossRef]
34. A. White, C. Smith, N. Heckenberg, et al., “Interferometric measurements of phase singularities in the output of a visible laser,” J. Mod. Opt. 38, 2531–2541 (1991). [CrossRef]
35. M. S. Soskin, V. N. Gorshkov, M. V. Vasnetsov, et al., “Topological charge and angular momentum of light beams carrying optical vortices,” Phys. Rev. A 56, 4064–4075 (1997). [CrossRef]
36. A. M. Yao and M. J. Padgett, “Orbital angular momentum: origins, behavior and applications,” Adv. Opt. Photonics 3, 161 (2011). [CrossRef]
37. A. Kolodziejczyk, S. Bará, Z. Jaroszewicz, et al., “The light sword optical element-a new diffraction structure with extended depth of focus,”J. Mod. Opt. 37, 1283–1286 (1990). [CrossRef]
38. S. H. Tao, X.-C. Yuan, J. Lin, et al., “Sequence of focused optical vortices generated by a spiral fractal zone plate,” Appl. Phys. Lett. 89, 031105 (2006). [CrossRef]
39. W. D. Furlan, F. Giménez, A. Calatayud, et al., “Devil’s vortex-lenses,” Opt. Express 17, 21891–21896 (2009). [CrossRef]
40. J. Yu, C. Zhou, W. Jia, et al., “Generation of dipole vortex array using spiral Dammann zone plates,” Appl. Opt. 51, 6799–6804 (2012). [CrossRef]
41. G. Rumi, D. Actis, D. Amaya, et al., “Analytical description of optical vortices generated by discretized vortex-producing lenses,” Phys. Rev. A 97, 063813 (2018). [CrossRef]
BOOM Partner