目前,没有任何软件能够100%确定地检测人工智能生成的内容。当你审查学生提交的材料时,除了使用人工智能检测软件的反馈外,还要检查以下危险信号。
人工智能生成的内容通常是:
- 受事实错误的影响。生成式人工智能模型的工作原理是根据之前的上下文预测下一个单词。他们不“知道”事情。正因为如此,他们倾向于输出看似合理但实际上不正确的陈述。这种现象被称为AI幻觉. 如果提交的内容包含许多这样的错误,或者一两个非常严重的错误,那么它很可能是人工智能生成的。
- 此外,OpenAI的模型只接受了到2021年的数据训练,所以当涉及到最近的数据或事件时,ChatGPT的输出更有可能是不正确的。
- 在GPT-3.5生成的文本中,引用虚构的来源是一个非常常见的问题。
- 付费升级带来的功能可能会减轻这些担忧,并使剽窃行为不那么明显。GPT-4输出仍然显示幻觉问题,但程度较轻。2023年3月推出的插件支持(也可以通过付费订阅获得)也将有助于解决其中的一些问题。具体来说,OpenAI支持的浏览插件使用必应来浏览互联网,这有助于弥补几年前的训练数据。GPT-4和插件都只能通过付费订阅和等待列表获得,但一些学生可能会拥有它。
- 与作业指南不一致。人工智能生成的提交可能无法遵循说明,特别是如果作业要求学生参考特定的数据和来源。如果提交引用了意外或不寻常的数据和源,那就是一个危险信号。
- 在语法、用法和编辑上异常正确的。
- 没有声音,没有人情味。它是正确的,易于阅读,但背后没有任何人类的感觉——容易出错,参差不齐,充满激情,笨拙。你将无法看到写作背后的学生。
- 可预测的。它遵循可预测的结构:段落顶部的强烈主题句;段落末尾的总结句;甚至对读起来有点像模式的话题的处理:一方面,许多人认为X很糟糕;另一方面,很多人认为X很好。”
- 注意:ChatGPT可以被指示采取一种声音:写得像一个高中生,或写得像一个在金融服务部门工作的营销主管。它在变形方面做得不是特别好,但它的寄存器可以移动一些。
- 没有方向,冷漠。它会回避表达强烈的意见,在一个问题上采取立场,自我反思或展望未来。在正确的提示下,它可以被哄骗去做其中的一些事情,但只是在一定程度上(GPT-4似乎比其他的做得更好),因为它会继续听起来不自然的谨慎,超然,缺乏方向/内容。
- 例如:当被要求表达意见时,AI倾向于描述各种可能的观点,而不会表现出对其中任何一个的偏好。当被提示进行自我反省时,它要么透露自己无法这样做(弱案例),要么列举所有可能的弱点和逻辑缺陷,理论上,可以在其论点中找到。在它的“立场”和“反思”中,从来没有找到多少方向或承诺。
怀疑自己在班上有学术不诚实的问题?探索我们的学术不诚实和学生作弊页面,了解更多关于学术不诚实的过程,学生作弊的教学方法,等等。
教学资源火狐体育卓越教师办公室是根据知识共享署名-非商业4.0国际许可协议
第三方内容不受知识共享许可协议的保护,可能受到额外的知识产权声明、信息或限制的约束。您全权负责获得使用第三方内容的许可,或确定您的使用是否属于合理使用,并对可能出现的任何索赔作出回应。