<div dir="ltr"><div><div>ACM Transactions on Intelligent Systems and Technology<br><b>Special Issue on Risks and Unintended Harms of Generative AI Systems<br></b><br>Guest Editors:<br>• Stefano Cirillo, University of Salerno, Italy<br>• Eliana Pastor, Politecnico di Torino, Italy<br>• Francesco Pierri, Politecnico di Milano, Italy<br>• Serena Tardelli, Institute of Informatics and Telematics, CNR, Italy<br>• Mengxiao Zhu, University of Science and Technology of China, China<br><br><br>As large language models (LLMs) are rapidly evolving and becoming increasingly integrated into diverse applications, critically examining their potential adverse impacts on individuals, society, and the broader online and offline information ecosystem is essential.<br><br>Recent research on generative Artificial Intelligence (AI) highlights significant concerns about biases, misinformation, and unintended social impacts. Advanced methods, such as multimodal credibility assessment, fairness constraints, fact-checking with retrieval-based techniques, content moderation, and human feedback, show promise in mitigating these risks but remain imperfect. Studies also reveal broader societal effects, including potential impacts on economic sectors and the reinforcement of echo chambers, underscoring the need for comprehensive risk assessment frameworks.<br><br>In addition to these concerns, the spread of increasingly powerful Text-to-Image, Text-to-Video, and Text-to-Speech generative AI models capable of generating realistic yet artificial images, videos, and audio has introduced several new risks. Technologies that produce synthetic media, including deepfakes and hyper-realistic avatars, have potential applications in entertainment and education but also pose serious threats in domains like privacy, misinformation, and cybersecurity. Despite advancements in safety filters and prompt moderation, most harmful outputs continue to evade these safeguards, creating ethical and legal threats for individuals and groups. These risks extend beyond individual harm, potentially undermining public trust in digital media and compromising democratic processes.<br><br>Topics<br>We invite submissions on a wide range of topics related to generative AI, including but not limited to:<br>• Risk assessment in generative AI<br>• Failure modes and unintended consequences<br>• Evaluation, mitigation, and moderation strategies<br>• Impact on information retrieval and recommendation systems<br>• Ethical and societal implications<br>• AI-driven misinformation and disinformation campaigns<br>• Regulatory frameworks for generative AI technologies<br>• Trustworthiness and reliability of AI-generated content<br>• Human-AI collaboration and interaction dynamics<br>• Adverse impacts of LLMs on individuals and society<br>• Misinformation risks from synthetic media in digital communication<br>• Cybersecurity threats posed by generative AI technologies<br>• Frameworks for ensuring responsible and accountable AI system deployment<br><br>Important Dates<br>• Submissions deadline: May 31, 2025<br>• First-round review decisions: August 31, 2025<br>• Deadline for revision submissions: October 31, 2025<br>• Notification of final decisions: December 31, 2025<br>• Tentative publication: February 2026<br><br>For questions and further information, please contact Stefano Cirillo (<a href="mailto:scirillo@unisa.it">scirillo@unisa.it</a>) or Serena Tardelli (<a href="mailto:serena.tardelli@iit.cnr.it">serena.tardelli@iit.cnr.it</a>).</div><div dir="ltr" class="gmail_signature"><div dir="ltr"><div><br></div></div></div></div></div>