黄龙翔:元任务觉察──人与AI“共舞探戈”
Dr Wong Lung Hsiang, the author, argues that the relationship between humans and AI should not be one of obedience or rivalry, but a well-coordinated partnership.
Responding to two commentaries on AI and learning, one emphasizing the importance of asking good questions and the other warning against overconfidence from AI use, the author proposes a Meta-Task Awareness (MTA) framework. MTA consists of three levels of mastery:
Pre-prompt level – Asking good, meaningful questions.
Prompt level – Skillfully directing and refining AI outputs.
Post-prompt level – Maintaining reflective awareness, adjusting goals, and ensuring human agency.
True AI literacy goes beyond merely “taming” AI with effective prompts. It requires sustained human awareness of goals, boundaries, responsibility, and critical judgment. The author introduces a five-point self-checklist to cultivate MTA and aligns it with Singapore’s newly launched government-led framework for regulating agentic AI.
Ultimately, the author compares human-AI interaction to dancing the tango: neither full control nor submission, but dynamic coordination. Humans must remain aware, responsible, and actively engaged, starting and ending tasks as decision-makers.
人与AI的关系,不是服从或抗衡,而应是默契十足的搭档。
2月2日,《联合早报·言论》版刊登两篇探讨人工智能(AI)学习的评论:刘家明的《学问——最重要学会提问》与汪来昇的《知识泛滥时代的判断难题》(下称刘文和汪文);前者主张善问问题,后者提醒别因用了AI就自以为是专家。
拙文《从防堵AI到深拥AI——学习评价的新范式》(2025年12月29日《言论》版),提出元认知觉察(Meta-Task Awareness,简称MTA)框架,正可用以回应两文所揭示的挑战。这个框架可用“三层功力”来拆解――前提示语、提示语,和后提示语层次。
刘文所论述的问对问题、问出好问题,是教育学界在30年前就提出的21世纪学习能力要件,可锚定学习切入点和深度,而今在生成式AI时代越显重要。比如,你问AI“贾宝玉是个怎样的人?”或“贾宝玉的命运是家世注定还是性格决定?”AI给你的答案,思想深度会差很大。
可是,在MTA视角下,那只是第一层功力――前提示语层次。人依赖AI,把AI当权威教师或答题机器,不等于学会思考问题。刘文因而也指出,人面对AI的答案,仍须自己查证和判断。这是第一层功力的较高层次――但还未晋入第二层功力。
联合国教科文组织发布的《学生AI能力框架》明确强调:在AI导入教育的大方向中,维持人类自主性(human agency)是关键目标。AI教育的大战略,确实是该引导学生认识AI、使用它并和它共同学习;要掌握AI,同时超越它,而非反过来被它掌控。不过,“超越”AI还不是终点。
近日我在所教的科技教学应用的课堂上,先让学生分享他们使用AI的经验。三名学生自豪地说:“我已经‘驯服’了AI!”这就是第二层功力(提示语层次):能按己意精确下指令,迭代优化生成,甚至让AI模仿个人风格。我回应:“这门课的最后,你们会学到比‘驯服’更高一层的技能。”
汪文的提醒跟第三层功力(后提示语层次)不谋而合。警惕生成式AI让许多人产生“我也是专家”的错觉,是第二层功力的“长期发功者”的可能心态。MTA可防止这种错位。
MTA没要人跟AI斗智,而是比AI更清醒,要求人在任务中持续觉察。我曾向初级学院学生发表演讲,列出MTA的五点“自检清单”:开始使用AI前,是否清楚为何用AI、要达到什么目的?当AI提出新点子时,能否判断,要不要修改、优化目标或任务,并确保AI能与新目标、任务对齐?是否懂得在跟AI共学、共事的过程中,何时引导AI,何时放手让AI引导自己?是否能判断AI真的帮助你的思考,而不只是让产出“更好看“而已?每次互动后,是否懂能反思而优化提问、指示技巧,下次让AI更好?
这个自检清单,让培养MTA思维和技巧,变得可操作。MTA互动的一大特征,是目标和任务可动态调整;人对于自己与AI的专业界线,也会有更大的觉察,所以不会一面倒地“依赖AI”或“掌控AI”。当AI展现计算力,我提供语境判断;当AI提供模式识别,我决定取舍方向。
1月22日,我国推出全球首个由政府主导的代理式AI(又译智能体)监管模式框架,协助企业和机构采取措施降低应用风险,并确保AI的运作最终必须由人来负责。框架围绕四大重点:预先评估与界定风险;确保人类对智能体承担实质责任;在智能体的全生命周期中实施技术管控与流程管理;以及通过透明化处理及教育培训,增强终端用户的责任意识。
MTA正是提供这个框架在个人实践层面的具体操作或培训原则,帮助人类判断,任务是否仍然“由人开始,由人结束”。当AI的行动路径越来越复杂,人若缺乏MTA,就容易让思考被系统“吞没”;具备MTA的人,则能适时插手,重新定义问题或任务的边界与意义。
MTA让人与AI互动,如同齐跳一支探戈舞。探戈并非由单一领舞者完全掌控,双方都须不断读懂对方的节奏,及判断何时引导、何时跟随;不是机械的命令执行,而是节奏与感知的共鸣。探戈若失去平衡,舞者可能互相绊倒。人与AI的关系,不是服从或抗衡,而应是默契十足的搭档。
作者是南洋理工大学国立教育学院高级教育研究科学家
Read the original article here.
Source: Lianhe Zaobao © SPH Media Limited. Permission required for reproduction.



