用于研究的生成人工智能
生成式人工智能正在迅速改变学术研究的格局,为发现和创新创造新的机会。然而,当我们利用尖端技术进行研究时,至关重要的是要注意与生成式人工智能相关的伦理考虑、隐私问题和作者身份问题。在本页,我们收集有关生成式人工智能工具的信息,包括用例、限制、使用指南、工具等。
我如何在研究中使用人工智能工具
人工智能在研究中的用例包括:
- 基于法学硕士的聊天机器人,如Chat GPT, Gemini, MS Copilot, Perplexity。Ai和其他人可以帮助你集思广益,开始或继续任何规模的项目。一些聊天机器人,比如Elicit,是专门针对学术文本进行训练的,因此更有可能产生更高学术价值的想法。
- 基于神经网络的工具,如b谷歌Scholar、ResearchRabbit等,可以帮助你识别相关的论文、文章和书籍。许多基于法学硕士的聊天机器人(见上文)可以非常准确地总结pdf文档的内容,并回答有关它们的问题。不要将文档上传到人工智能工具,除非它们是公开可用的。
- 虽然出于作者身份和隐私方面的考虑,我们建议不要将你的全部作品上传到聊天机器人中,但法学硕士可以帮助你编辑你不确定的写作中的特定地方。具体的任务包括改写尴尬或模棱两可的句子,检查语法,以及集思广益的文化敏感的方式来表达一个想法。
- 人工智能工具可以帮助你展示你的作品,包括标题、摘要、幻灯片和要点。
AI工具可以使用什么样的数据
目前,火狐体育没有与任何生成式人工智能工具或服务签订合同。因此,所有这些工具都应该被视为第三方应用程序,只允许公共数据进入其中(Montclair的数据安全分类)
与生成式AI相关的限制和关注
- 幻觉。文本、图像和视频内容的人工智能生成器可以非常接近地模仿人类的语言、创作和行为。然而,它们背后的神经网络并不像人类那样了解世界。特别是,大多数类型的人工智能工具都容易产生幻觉:它们生成的内容看似合理,但实际上并不真实或准确。大多数人工智能工具的道德使用将包括人工验证和提炼。
- 偏见。人工智能工具可以继承并放大我们生活的现实世界的偏见。由于内容生成器基于概率进行操作,因此它们更有可能捕获在公共知识领域中表现更好的内容,而不太可能包含已经表现不足的内容。当你使用人工智能工具进行研究时,要注意人工智能可能遗漏的观点和来源。
- 作者的担忧。关于谁拥有人工智能生成的内容,没有法律指导。为了保证你的想法和作品的安全(或者更安全),不要将你未发表的作品输入任何第三方工具。当作者使用文本生成器进行编辑帮助时,作者身份问题可能特别令人担忧。虽然输入文本仍然属于作者,但您收到的输出可以算作开源或所有者公司的知识产权-无论编辑多么轻微。
- 隐私问题。任何个人或机构的私人数据都不应进入任何第三方工具。请参阅上文(“我可以与AI工具一起使用哪种数据”)获取数据隐私指导。
- 各种视角和人工智能礼仪。学者们对人工智能有着截然不同的看法:一些人接受它,另一些人则感到不确定。如果您是研究团队的一员,在将任何其他工具集成到您的研究中之前,征得每个人的同意是很重要的。
按任务划分的工具
教学资源火狐体育卓越教师办公室是根据知识共享署名-非商业4.0国际许可协议
第三方内容不受知识共享许可协议的保护,可能受到额外的知识产权声明、信息或限制的约束。您全权负责获得使用第三方内容的许可,或确定您的使用是否属于合理使用,并对可能出现的任何索赔作出回应。