<div dir="ltr"><p dir="ltr" style="color:rgba(0,0,0,0.87);font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px">Dear colleagues and researchers,</p><p dir="ltr" style="color:rgba(0,0,0,0.87);font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px"><span style="font-weight:700"> </span></p><p dir="ltr" style="color:rgba(0,0,0,0.87);font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px"><b>1st International workshop on Machine vision and NLP for Document Analysis (VINALDO)</b><span style="font-weight:700"> </span></p><p dir="ltr" style="color:rgba(0,0,0,0.87);font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px"><a href="https://sites.google.com/view/vinaldo-workshop-icdar-2023/home" target="_blank" style="color:rgb(41,98,255);text-decoration-line:none"><span style="text-decoration-line:underline"><b>https://sites.google.com/view/vinaldo-workshop-icdar-2023/home</b></span></a></p><p dir="ltr" style="color:rgba(0,0,0,0.87);font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px"><b>As part of the 17th International Conference on Document Analysis and Recognition</b></p><p dir="ltr" style="color:rgba(0,0,0,0.87);font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px"><span style="font-weight:700">(ICDAR 2023)</span></p><p dir="ltr" style="color:rgba(0,0,0,0.87);font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px"><b><a href="https://streaklinks.com/BXBi2-i9_SjRqQcRPgs5ZAqi/https%3A%2F%2Ficdar2023.org%2F?email=boutalbi.rafika%40gmail.com" target="_blank" style="color:rgb(41,98,255);text-decoration-line:none">https://icdar2023.org/</a></b></p><p dir="ltr" style="color:rgba(0,0,0,0.87);font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px"><b>August 21-26, 2023 — San José, California, USA</b><br></p><p dir="ltr" style="color:rgba(0,0,0,0.87);font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px"><span style="font-weight:700"> </span></p><p dir="ltr" style="color:rgba(0,0,0,0.87);font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px"><span style="font-weight:700">Context</span></p><p dir="ltr" style="color:rgba(0,0,0,0.87);font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px">Document understanding is essential in various application areas such as data invoice extraction, subject review, medical prescription analysis, etc., and holds significant commercial potential. Several approaches are proposed in the literature, but datasets' availability and data privacy challenge it. Considering the problem of information extraction from documents, different aspects must be taken into account, such as (1) document classification, (2) text localization, (3) OCR (Optical Character Recognition), (4) table extraction, and (5) key information detection. </p><p dir="ltr" style="color:rgba(0,0,0,0.87);font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px">In this context, machine vision and, more precisely, deep learning models for image processing are attractive methods. In fact, several models for document analysis were developed for text box detection, text extraction, table extraction, etc. Different kinds of deep learning approaches, such as GNN, are used to tackle these tasks. On the other hand, the extracted text from documents can be represented using different embeddings based on recent NLP approaches such as Transformers. Also, understanding spatial relationships is critical for text document extraction results for some applications such as invoice analysis.  Thus, the aim is to capture the structural connections between keywords (invoice number, date, amounts) and the main value (the desired information). An effective approach requires a combination of visual (spatial) and textual information. </p><p dir="ltr" style="color:rgba(0,0,0,0.87);font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px"><span style="font-weight:700">Objective</span></p><p dir="ltr" style="color:rgba(0,0,0,0.87);font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px">The first edition of the machine VIsion and NAtural Language processing for DOcument analysis (VINALDO)  workshop comes as an extension of the GLESDO workshop, where we encourage the description of novel problems or applications for document analysis in the area of information retrieval that has emerged in recent years. We also encourage works that include NLP tools for extracted text, such as language models and Transforms.  Finally, we also encourage works that develop new scanned document datasets for novel applications.</p><div style="font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px"><div style=""><p dir="ltr" style="color:rgba(0,0,0,0.87)">The VINALDO workshop aims to bring together an area for industry, science, and academia experts to exchange ideas and discuss ongoing research in graph representation learning for scanned document analysis.</p><p dir="ltr" style="color:rgba(0,0,0,0.87)"><span style="font-weight:700">Topics of interests</span></p><p dir="ltr" style="color:rgba(0,0,0,0.87)">We invite the submission of original works that are related -- but are not limited to -- the topics below:</p><ul style="color:rgba(0,0,0,0.87)"><li dir="ltr" style="margin-left:15px"><p dir="ltr">Document structure and layout learning </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">OCR based methods </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Semi-supervised methods for document analysis</p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Dynamic graph analysis </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Information Retrieval and Extraction form documents </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Knowledge graph for semantic document analysis </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Semantic understanding of document content </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Entity and link prediction in graphs </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Merging ontologies with graph-based methods using NLP techniques </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Cleansing and image enhancement techniques for scanned document </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Font text recognition in a scanned document </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Table identification and extraction from scanned documents </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Handwriting detection and recognition in documents </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Signature detection and verification in documents </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Visual document structure understanding </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Visual Question Answering </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Invoice analysis </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Scanned documents classification </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Scanned documents summarization </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Scanned documents translation </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Graph-based approaches for a spatial component in a scanned document </p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Graph representation learning for NLP</p></li></ul><p dir="ltr" style="color:rgba(0,0,0,0.87)"><span style="font-weight:700">Submission</span></p><p dir="ltr" style="color:rgba(0,0,0,0.87)">The workshop is open to original papers of theoretical or practical nature. Papers should be formatted according to <span style="text-decoration-line:underline"><a href="https://streaklinks.com/BaPft0cQ0AjwJZn7lAvT8yLc/https%3A%2F%2Fwww.springer.com%2Ffr" target="_blank" style="color:rgb(41,98,255);text-decoration-line:none">LNCS instructions for authors</a></span>. VINALDO 2023 will follow a double-blind review process. Authors should not include their names and affiliations anywhere in the manuscript. Authors should also ensure that their identity is not revealed indirectly by citing their previous work in the third person and omitting acknowledgments until the camera-ready version. Papers have to be submitted via the workshop's <span style="text-decoration-line:underline"><a href="https://streaklinks.com/BaPft0cmZn5QE4P6fgq4prXL/https%3A%2F%2Feasychair.org%2Fconferences%2F%3Fconf%3Dvinaldo1" target="_blank" style="color:rgb(41,98,255);text-decoration-line:none">EasyChair</a></span> submission page.</p><p dir="ltr" style="color:rgba(0,0,0,0.87)">We welcome the following types of contributions:</p><ul style="color:rgba(0,0,0,0.87)"><li dir="ltr" style="margin-left:15px"><p dir="ltr">Full research papers (12-15 pages): Finished or consolidated R&D works to be included in one of the Workshop topics</p></li><li dir="ltr" style="margin-left:15px"><p dir="ltr">Short papers (6-8 pages): ongoing works with relevant preliminary results, opened to discussion.</p></li></ul><p dir="ltr" style="color:rgba(0,0,0,0.87)">At least one author of each accepted paper must register for the workshop in order to present the paper. For further instructions, please refer to the<a href="https://streaklinks.com/BaPft0U0dGAGgr35vQQhY29o/https%3A%2F%2Fwww.google.com%2Furl%3Fq%3Dhttps%253A%252F%252Ficdar2021.org%252F%26sa%3DD%26sntz%3D1%26usg%3DAOvVaw0W4EcU263Y1GNomxyRFH3n" target="_blank" style="color:rgb(41,98,255);text-decoration-line:none"> </a><a href="https://streaklinks.com/BaPft0c6esXZ2-EjWQ9Vlysy/https%3A%2F%2Ficdar2023.org%2F" hspace="streak-track" target="_blank" style="color:rgb(41,98,255);text-decoration-line:none">ICDAR 2023</a> page.</p><p dir="ltr" style="color:rgba(0,0,0,0.87)"><span style="font-weight:700">Important dates</span></p><p dir="ltr" style=""><b style=""><font color="#000000" style="background-color:rgb(255,153,0)">Submission Deadline: March 17, 2023 at 11:59pm Pacific Time</font></b></p><p dir="ltr" style="color:rgba(0,0,0,0.87)">Decisions Announced: April 17, 2023, at 11:59pm Pacific Time</p><p dir="ltr" style="color:rgba(0,0,0,0.87)">Camera Ready Deadline: May 8, 2023, at 11:59pm Pacific Time</p></div></div><p style="color:rgba(0,0,0,0.87);font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px">Workshop: August 24-26, 2023</p><p dir="ltr" style="color:rgba(0,0,0,0.87);font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px"><span style="font-weight:700">Workshop Chairs</span></p><p dir="ltr" style="color:rgba(0,0,0,0.87);font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px"><span style="font-weight:700"><a href="http://rim.hantach%40gmail.com%20%3Crim.hantach@gmail.com%3E%3B/" hspace="streak-track" target="_blank" style="color:rgb(41,98,255);text-decoration-line:none">Rim Hantach</a></span>, Engie, France</p><p dir="ltr" style="color:rgba(0,0,0,0.87);font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px"></p><p dir="ltr" style="color:rgba(0,0,0,0.87);font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:14px"><span style="font-weight:700"><a href="https://streaklinks.com/BaPft0YTU38Y9_YkUgguo6qX/http%3A%2F%2Frafika.boutalbi%40univ-amu.fr%2F" hspace="streak-track" target="_blank" style="color:rgb(41,98,255);text-decoration-line:none">Rafika Boutalbi</a></span>, Aix-Marseille University, France</p></div><div hspace="streak-pt-mark" style="max-height:1px"><img alt="" style="width:0px;max-height:0px;overflow:hidden" src="https://mailfoogae.appspot.com/t?sender=aYm91dGFsYmkucmFmaWthQGdtYWlsLmNvbQ%3D%3D&type=zerocontent&guid=55e520b7-b600-420b-825c-a99747a28d82"><font color="#ffffff" size="1">ᐧ</font></div>