巴西高校制定人工智能使用规则:可辅助学习,但不得替代学生思考
发布时间: 1773751320292 来源:南美侨报 评论:0 发布时间: 1773751320292


【南美侨报网编译晓兆3月16日报道】巴西高等教育领域的校长和教授们得出结论:假装人工智能不存在,已经没有意义。他们意识到,想要百分之百禁止学生使用ChatGPT和Gemini等工具,终究是徒劳的。但问题在于,如何确保这类技术不会损害年轻人的培养质量,也不会扭曲各类考核结果?

据《G1》报道,巴西国家教育委员会正在讨论一份意见文件,拟为人工智能在公立和私立教育中的应用制定全国性指导方针,涵盖所有教育阶段。截至本周一(16日)本篇报道最后更新时,该文本仍处于开放状态,正在等待教育部提出最后建议。未来几天,该文件应提交委员表决,随后进入公众咨询程序。

在这一决议尚未最终完成之际,巴西多所公立大学已经选择自行制定并发布各自的“手册”,明确人工智能在学术环境中的使用规则与建议。

例如,上周,圣保罗州立大学(Unesp)就发布了一份面向本科生和教师的指南,将相关做法分为三类:可以 -- 翻译文本、改写段落、撰写摘要以及获取补充解释;修改已写好的文本(语法和拼写);制作提纲、脚本、时间表和思维导图;生成图像、视频和动画,作曲,制作演示文稿以及开发教育类游戏;出于研究目的翻译文本,但前提是译文必须经过认真审阅和核实。

不可以 -- 将人工智能生成的作业在未明确声明的情况下作为原创作品提交;构成抄袭,未对人工智能可能纳入结果中的作品进行适当引用;在未经教师明确授权的情况下,在考试、测验和评估中使用人工智能;分享机密信息或受版权保护的信息;制造虚假信息(深度伪造)或在未说明使用工具的情况下模拟实验结果。

视情况而定 -- 生成作业中的特定部分(是否允许取决于课程及教师规定);用于小组作业(具体规则应由教师说明,并在所有组员之间透明协商)。

“在毕业论文中,我们所期待的是,学生不要用人工智能完整地构建自己的文本。它不能替学生完成研究,也不能替学生写作,但它可以帮助修改语法错误,或者帮助寻找参考文献。”圣保罗州立大学教授、该指南作者之一丹尼斯·萨尔瓦德奥解释说。

2025年12月,圣保罗联邦大学(Unifesp)通过了一份针对研究生教育的专门规定文件。“无论是学生还是教师,整个学术共同体此前都没有关于哪些事情可以做的明确指引。在作业或研究中,人工智能到底可以使用到什么程度?”圣保罗联邦大学科技学院教授路易斯表示:“现在,我们的指导方针明确要求必须保持透明:作者应指出自己在哪些地方使用了人工智能。接下来,就由同行(即该领域其他研究人员)、评审者和教师来判断这种使用是否恰当。”

在巴伊亚联邦大学(UFBA),一份名为《生成式人工智能伦理与负责任使用指南》的文件强调,每门课程的教师都应明确规定某项活动中哪些行为是允许的。例如,教师可以要求学生说明:在作业中使用了哪一种人工智能工具;输入的提示词以及得到的回复内容。

“如果你只是简单地下达一个指令,拿到一段文字,然后直接上交,那么推理能力、知识积累能力、观点连接能力和综合能力都不会得到发展。那只是机器在工作。你交了作业,但并没有真正形成学习。”巴伊亚联邦大学教授、人工智能委员会成员阿德里亚诺·佩肖托说:“对于大学来说,我们真正想要的是让学生学会思考,培养批判意识。因此,要求学生解释为什么使用人工智能、互动方式是什么,以及自己如何解读答案,这一点非常重要。”

在关于科研与研究生教育中人工智能使用的决议中,圣保罗州联邦大学也明确指出:“对于所有提交至圣保罗州联邦大学接受评估或送交发表的最终文件,必须纳入一份关于使用生成式人工智能的明确声明。”

人工智能是“助手”,而不是“主角”。总体而言,各大学的核心目标都是强调:人工智能应当充当一种“助手”,绝不能取代人的监督。

“技术应被用于支持、补充和增强人的能力,而不是不加区分地取代这些能力。”圣保罗州联邦大学的指南写道。

圣保罗大学(USP)人工智能研究人员玛尔西亚指出,对这类工具被不加甄别地使用的最大担忧,是人们在缺乏任何批判意识的情况下接受其答案,仿佛这些答案天然中立:“大学必须让学生和教师做好准备,使他们理解每一种系统是如何运作的,以及其背后有哪些文化结构。它们不是中立机器;它们有其特定的世界观。而进入高等教育,意味着希望为某个领域作出贡献。如果我想贡献什么,我就必须以人的身份置身其中,思考某个问题,留下自己的印记,建立自己的联系。ChatGPT做不到这一点。”

如何发现?该处罚还是不处罚?

塞阿拉联邦大学(UFC)于2025年9月发布的一项条例,也与本报道提及的其他高校持相同立场。例如,该校禁止让人工智能“撰写研究工作中的实质性章节(原创方法、测试、结果、讨论和结论)”,或“插入未经核实的参考文献”。

其中一条规定要求,研究生作业应提交至Turnitin等系统,以检测文本中是否使用了人工智能。专家称,这类工具并非百分之百可靠。“并不存在能够保证判断某人是否使用了人工智能的工具。它们往往会出现‘假阳性’。理想做法是教师与学生之间建立透明机制,并遵循伦理原则。”人工智能应用研究员兼专家塔代乌·达庞特表示。

按照他的说法,只有在以下情况中,借助这类软件较容易证明人工智能被不当使用:传统意义上的抄袭,即几乎完整复制某一文本,却未适当注明作者;使用虚假参考文献——例如,ChatGPT可能会“编造”来源,提及实际上并不存在的作品或学术论文。

“始终都应有人类进行审查。”达庞特说。

仅仅制定规则还不够

塔代乌·达庞特强调,仅靠指南或手册并不足够:这些文件可以指出方向,但还必须伴随学术文化本身的改变。“思维方式必须改变。不能再认为学生使用人工智能就是因为懒惰。这些工具既可以成为学生的强大资源,也可以成为教师的强大资源。”他说:“如果今天已经有Waze,要求一个人从圣保罗去内地城市索罗卡巴(Sorocaba)时还只能使用纸质地图,那就毫无意义。与其禁止一种已经存在的资源,不如思考如何以适当方式将其用于学习。”

也正是在这里,人工智能数字素养的重要性凸显出来,正如圣保罗大学的玛尔西亚教授所解释的那样。“我们不仅需要教学生怎么使用这些工具,也要教老师如何使用。某些评估方式已经不再合理。”她说:“如果是个人考试,那就必须在线下教室中进行。如果是研讨展示,即便学生使用人工智能进行研究,我们也可以要求他向全班展示自己学到了什么,或把内容与自己的日常生活联系起来。这些都是确保某些能力得到发展的方式。”

塔代乌·达庞特还对高等教育中的人工智能提出了另一项建议:开展职业实践模拟练习。

例如,在新闻学课程中,可以设计一种采访模拟练习,由机器人扮演一位专家。学生每次向这位“受访者”发送一个问题,并根据回复继续追问,就像进行书面对话一样。在这种活动中,大学教师评估的,正是学生与人工智能之间的这段对话。“这将是一种评估更多学生、并能够给出更细致反馈的方式。这样的模拟可能比旧式考试形式更有意思。”他说。

网友评论

10 条评论

所有评论
显示更多评论