AI论文导读0911:对抗性保护模型的设计

AI论文导读0911:对抗性保护模型的设计
2023年09月11日 13:51 AI前沿科技小编

亲爱的研究同学们,欢迎阅读今日的AI论文导读。今天我为你带来了新鲜出炉的本日AI学术论文导读,涵盖了自动驾驶场景中的道路障碍物检索、AI生成文本的检测、大型语言模型在对话代理中的应用、ChatGPT在推荐系统中的表现、生成式AI系统的软件测试、对抗性保护模型的设计、基于因果推断的物理定律推断、负责任AI的实践挑战、神经网络在蛋白质功能预测中的应用以及深度学习在自动驾驶感知领域的安全关注点。希望这些内容能够为你的研究提供启示和帮助。如果你觉得这些内容有价值,欢迎点赞、转发,让更多的研究人员了解AI日新月异的进展和变化。

1. 【Have We Ever Encountered This Before? Retrieving Out-of-Distribution Road Obstacles from Driving Scenes】

本文提出了一种用于自动驾驶场景中的文本到视频的OoD道路障碍物检索的方法。该方法通过分割、跟踪和嵌入OoD道路障碍物的裁剪图像来实现。实验结果表明,基于对象级别处理的方法具有明显的优势,并且跟踪的引入进一步提高了检索性能。消融研究表明,OoD分割和跟踪对检索性能至关重要。该研究为解决自动驾驶感知系统中的OoD道路障碍物检索问题奠定了基础。

论文链接:http.//arxiv.org/pdf/2309.04302v1

2. 【ConDA. Contrastive Domain Adaptation for AI-generated Text Detection】

本文介绍了一种用于检测人工智能生成文本的对比域适应框架ConDA。由于大型语言模型(LLMs)可以用于生成虚假信息,有必要构建有效的检测器来检测这些AI生成的文本。文章提出了一种无监督域适应任务的框架,其中域是不同的文本生成器,即LLMs。文章开发了一种名为ConDA的对比域适应框架,将标准域适应技术与对比学习的表示能力相结合,学习对于最终的无监督检测任务有效的域不变表示。实验结果表明,ConDA框架的有效性,相对于最佳基线的平均性能提高了31.7%,并且与完全监督的检测器之间的差距在0.8%以内。作者使用了一个多任务学习框架,将ChatGPT生成的新闻文章与人类写作的新闻文章进行对比。作者使用了对比学习的损失函数,包括源对比损失和目标对比损失,以及最大均值差异(MMD)损失。作者在TuringBench数据集上进行了实验,该数据集包含了人类写作的新闻文章和各种生成模型生成的新闻文章。实验结果表明,作者的方法在检测ChatGPT生成的新闻文章中的虚假信息方面取得了很好的性能。然而,作者也指出了一些局限性,包括对于特征选择方法的需求以提高检测性能。

论文链接:http.//arxiv.org/pdf/2309.03992v1

3. 【Enhancing Pipeline-Based Conversational Agents with Large Language Models】

本文研究了使用大型语言模型(LLMs)来增强基于流水线的对话代理的方法。LLMs在设计和开发阶段的各个方面都能提供帮助,包括生成训练数据、创建实体和同义词列表以及设计角色。在操作过程中,LLMs可以改善上下文化、意图分类、自动纠正用户输入、处理超出范围的问题以及引入响应的变化性。此外,LLMs还可以用于封闭问题回答能力和对话摘要。通过将LLMs集成到基于流水线的代理中的混合方法,可以节省时间和成本,同时保留现有系统的优势。实验结果表明,在私人银行领域使用GPT-4进行的实验展示了LLMs在增强基于流水线的对话代理方面的潜力。然而,LLMs的局限性包括响应的可靠性、长时间的训练时间以及生成不准确或有害信息的风险。未来的研究将重点评估不同的LLMs,解决隐私问题,并了解影响LLMs集成到基于流水线的代理中的因素。

论文链接:http.//arxiv.org/pdf/2309.03748v1

4. 【Evaluating ChatGPT as a Recommender System. A Rigorous Approach】

本论文研究了ChatGPT-3.5在推荐任务中的表现。研究发现,ChatGPT-3.5在准确性方面表现良好,与协同模型相当。在多样性和新颖性方面,ChatGPT-3.5表现出色,尤其在音乐领域。然而,ChatGPT-3.5对热门物品存在一定偏见,但相比其他模型,偏见较小。此外,ChatGPT-3.5的行为更类似于协同过滤模型而不是基于内容的模型。在某些领域(如电影和书籍)缺乏专业知识。ChatGPT-3.5在生成推荐时不仅依赖于内容数据,与最初的假设相反。研究还发现,ChatGPT-3.5在推荐物品时表现出协同行为,并且容易受到热门物品偏见的影响。ChatGPT-3.5倾向于优先考虑协同-热门数据进行推荐。此外,ChatGPT-3.5在冷启动场景中表现良好,优于其他最先进的模型。研究还指出,ChatGPT-3.5展示了混合推荐系统的特点,利用了协同和基于内容的信息。未来的研究可以探索ChatGPT-3.5在推荐系统中的提示工程和微调方法,以提高推荐质量。

论文链接:http.//arxiv.org/pdf/2309.03613v1

5. 【Software Testing of Generative AI Systems. Challenges and Opportunities】

本论文探讨了生成式人工智能(GenAI)系统在软件测试领域中的挑战和解决方法。GenAI系统的输出具有复杂性,传统测试技术存在不足之处。GenAI系统的输出可能是主观和多样化的,需要生成符合语法和语义规则的内容。此外,GenAI系统的输出可能具有新颖的行为,难以确定正确性或适当性,可能存在偏见或不当内容。因此,测试GenAI系统的充分性是一个重要问题。本文提出了两种解决方法:一是训练AI模型来检测偏见,提供一种量化和自动化的方法来评估GenAI系统的偏见;二是使用测试套件实例空间充分性(TISA)度量来评估测试的多样性和覆盖性,帮助测试人员系统地评估测试套件的质量。然而,训练AI模型来检测偏见需要大量的标记数据和持续的监控和改进工作,而使用TISA度量来评估测试的多样性和覆盖性需要解决特征选择的问题。综上所述,本文提出了解决GenAI系统测试中的偏见和充分性问题的方法,并指出了相应的挑战和改进方向。

论文链接:http.//arxiv.org/pdf/2309.03554v2

6. 【My Art My Choice. Adversarial Protection Against Unruly AI】

本论文提出了一种名为“My Art My Choice”的对抗性保护模型,旨在防止在线图像被扩散模型利用。我们相信,确实有必要对受版权保护的材料进行在线保护,我们的跨领域保护器非常适合中断许多基于扩散的任务,正如我们所展示的,例如个性化、风格转换和任何引导的图像到图像转换。我们在四个不同的数据集上评估了MAMC,进行了跨数据集设置,进行了有关损失项和超参数的消融研究,并评估了用户控制。随着生成性AI服务只处于早期阶段,我们相信基于MAMC的主动保护服务在未来也将非常有价值。话虽如此,我们的下一个研究方向是将MAMC应用于其他需要原产地保护的模态和领域。同时,我们还计划对我们的对抗性保护方法进行红队测试,以使其在面对未知和未知的对手时更加强大。

论文链接:http.//arxiv.org/pdf/2309.03198v1

7. 【Inferring physical laws by artificial intelligence based causal models】

本论文介绍了一种基于因果推断的方法,用于推断物理现象中的因果关系。通过构建因果模型,可以识别出物理现象中的因果关系,并进行因果推断。论文通过几个实例展示了该方法的应用,包括潮汐高度、欧姆定律、光敏电阻和量子测量相关性。实验结果表明,该方法能够准确地推断出物理现象中的因果关系,并提供了一种新的思路来理解和解释物理现象。未来的研究可以进一步改进和优化该方法,以适应更复杂的物理现象和实验场景。

论文链接:http.//arxiv.org/pdf/2309.04069v1

8. 【Beyond XAI.Obstacles Towards Responsible AI】

本论文探讨了当前可解释人工智能(XAI)方法和评估实践的局限性,以及在考虑隐私、公平性和可争议性等其他重要因素时的影响。研究发现,尽管可解释性至关重要,但在没有将可解释性与其他关键因素建立起良好的联系机制的情况下,负责任的人工智能实践的追求将受到阻碍。因此,本文呼吁采用一种全面和整体的负责任人工智能方法,包括隐私、公平性和可争议性等多个方面。\n\n在实现负责任人工智能的过程中,解释性与公平性之间存在重要关系。解释性被视为确保人工智能公平性的机制,可以帮助人们识别模型对受保护群体的偏见。然而,目前的解释性方法在检测偏见方面存在局限性,容易被操纵以隐藏模型的偏见。此外,解释性方法通常只关注模型是否识别与受保护属性相关的特征,而不关注确保输入数据不带有与这些属性相关的偏见。因此,需要进一步研究解释性方法与其他偏见缓解策略的配合使用。

另外,解释性与隐私之间存在紧张和复杂的关系。解释性努力揭示特定决策或整体决策过程的更多细节,而隐私保护技术则有意避免深入揭示个体决策路径,而集中于数据集范围的统计信息。提供有关模型的额外细节以增强解释性可能会损害隐私,反之亦然。因此,在不同上下文中平衡解释性和隐私的问题需要深入分析隐私对人类用户解释的影响。

论文链接:http.//arxiv.org/pdf/2309.03638v1

9. 【Insights Into the Inner Workings of Transformer Models for Protein Function Prediction】

本文介绍了可解释的人工智能(XAI)如何帮助揭示神经网络在蛋白质功能预测中的内部工作原理。通过扩展集成梯度(IG)方法,可以检查经过微调的Transformer模型内部的潜在表示,并识别出模型特别关注的氨基酸序列部分。这些序列部分反映了生物学和化学的期望,并且在嵌入层和模型内部都存在具有统计显著性的转换器头。这种方法有助于理解大型神经网络的决策逻辑,并为蛋白质功能预测提供了新的见解。此外,该方法还可以用于验证模型和发现新的蛋白质序列模式,有助于构建更小、更高效的模型。然而,需要注意的是,本研究仅使用了特定的Transformer模型和蛋白质功能预测任务,结果可能不适用于其他模型和任务。另外,由于数据集的限制,某些GO术语和EC号的相关性可能无法得到准确评估。最后,该方法仅提供了对模型内部工作原理的一种解释,不能完全解释模型的决策逻辑。总体而言,使用预训练的Transformer模型进行蛋白质功能预测可以取得竞争性的结果,特别是在单模型的情况下。

论文链接:http.//arxiv.org/pdf/2309.03631v1

10. 【Deep Learning Safety Concerns in Automated Driving Perception】

本论文主要关注深度学习在自动驾驶感知领域的应用,并提出了一种基于安全关注点的结构化元素来确保自动驾驶系统的安全性。安全关注点被分为四个类别:开放世界背景、数据和数据集准备、DNN特性以及分析和评估。本文提供了一份全面和精细的安全关注点列表,并对其进行了分类。作者对原始的九个安全关注点进行了重新组织和补充,并详细说明了这种重新组织和补充。然而,本文并未提供具体的解决方案,只是对安全关注点进行了分类和描述。因此,具体的解决方案需要根据具体情况进行进一步研究和开发。

论文链接:http.//arxiv.org/pdf/2309.03774v1

感谢您的关注,AI论文导读将继续为您带来AI精选论文的导读。请大家积极参与互动,点赞、评论、转发,让更多研究员快速了解AI的前沿变化。明天的导读,我们不见不散!

0条评论|0人参与网友评论
最热评论

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部