大學(xué)生批判性人工智能素養(yǎng)測(cè)評(píng)-3B


1. 基本信息:
姓名:
學(xué)號(hào):
專業(yè):
2. 您的性別:
3. 您目前的在讀階段是:
4.

當(dāng)一個(gè)推薦系統(tǒng)根據(jù)用戶的實(shí)時(shí)交互反饋不斷調(diào)整推薦策略時(shí),其最可能采用的技術(shù)機(jī)制是?

5. 當(dāng)AI預(yù)測(cè)結(jié)果出現(xiàn)系統(tǒng)性偏差時(shí),最可能的根本原因是?
6. 不同膚色群體識(shí)別準(zhǔn)確率差異明顯最可能因?yàn)?
7.  在將公開社交媒體數(shù)據(jù)用于AI建模時(shí),首先應(yīng)確認(rèn)什么?
8. 評(píng)估訓(xùn)練數(shù)據(jù)可靠性時(shí)最關(guān)鍵的因素是?
9. 當(dāng)醫(yī)療領(lǐng)域的AI訓(xùn)練數(shù)據(jù)出現(xiàn)大量缺失時(shí),最合適的處理策略是?
10. 當(dāng)招聘AI系統(tǒng)持續(xù)對(duì)某類求職者給出不利結(jié)果時(shí),最有可能的技術(shù)根源是?
11. 當(dāng)AI基于興趣推薦內(nèi)容時(shí),最核心的潛在風(fēng)險(xiǎn)是?
12. 當(dāng)政府廣泛采用 AI 輔助公共治理與決策時(shí),最需要重點(diǎn)關(guān)注的潛在風(fēng)險(xiǎn)是?
13. 當(dāng)你發(fā)現(xiàn)AI翻譯工具在法律文本中出現(xiàn)明顯誤譯時(shí),最合適的做法是:
14. 你在使用AI預(yù)測(cè)學(xué)生學(xué)習(xí)表現(xiàn)時(shí)發(fā)現(xiàn)結(jié)果異常,應(yīng)如何處理?
15. 若AI自動(dòng)評(píng)分系統(tǒng)疑似對(duì)某類學(xué)生不公平,最合適的做法是?
16. AI系統(tǒng)標(biāo)記某學(xué)生“注意力不足”,你應(yīng)如何處理?
17.  AI醫(yī)療診斷疑似出錯(cuò)時(shí),最合適的做法是?
18. 懷疑推薦系統(tǒng)對(duì)某群體不公平時(shí),最合適的做法是?
19. 看到AI生成的數(shù)據(jù)圖表時(shí),最合適的做法是?
20. 在用AI輔助決策時(shí),最合適的做法是?
21.

在分析AI生成文本時(shí)發(fā)現(xiàn)偏差,為支持后續(xù)改進(jìn)與決策,最適合的做法是?

22. 向他人解釋AI輸出時(shí),最合適的做法是?
23. 跨學(xué)科討論AI偏差問題時(shí),最合適的做法是?
24. 向公眾介紹AI風(fēng)險(xiǎn)時(shí),應(yīng)重點(diǎn)強(qiáng)調(diào)?
請(qǐng)根據(jù)您的真實(shí)感受,對(duì)以下陳述進(jìn)行評(píng)分
25. 我會(huì)主動(dòng)質(zhì)疑AI內(nèi)容的準(zhǔn)確性。
26. 發(fā)現(xiàn)AI偏差時(shí)我會(huì)分析原因。
27.  我關(guān)注AI公平性與隱私問題。
28.

如果AI生成內(nèi)容很好,將其作為我自己的作業(yè)提交是可以接受的

29.

在使用AI內(nèi)容前,我有責(zé)任核查其事實(shí)與推理是否正確。

30.

使用AI完成作業(yè)比我獨(dú)立完成任務(wù)更能有效幫助我學(xué)習(xí)。

31. 我愿意通過課程或?qū)嵺`活動(dòng)提高AI素養(yǎng)。
32. 學(xué)習(xí)AI時(shí),我同時(shí)關(guān)注技術(shù)、應(yīng)用與倫理。
33. 我關(guān)心AI在公共決策中的應(yīng)用。
34.  我愿意參與AI公平與倫理議題討論。
35. 我愿意就AI倫理問題發(fā)表意見。
36. A12. AI在公共部門與社會(huì)領(lǐng)域的應(yīng)用,應(yīng)堅(jiān)持公平、透明與可問責(zé)原則。
更多問卷 復(fù)制此問卷