大學生批判性人工智能素養(yǎng)測評-2B


1. 基本信息:
姓名:
學號:
專業(yè):
2. 您的性別:
3. 您目前的在讀階段是:
4.

在電商平臺中,系統(tǒng)根據(jù)用戶以往的點擊和購買記錄不斷調(diào)整推薦策略,以提高轉(zhuǎn)化率。這種機制最可能采用的是哪種AI技術?

5. AI系統(tǒng)在長期運行中對某一特定群體持續(xù)給出不利預測結(jié)果時,最可能的根本原因是?
6. 某語音識別系統(tǒng)在不同口音人群中的識別準確率差異明顯,最可能的原因是?
7. 在使用校園平臺收集的學生行為數(shù)據(jù)訓練AI模型之前,最需要優(yōu)先確認的是?
8. 在評估一組用于訓練AI模型的數(shù)據(jù)時,以下哪一因素最能反映數(shù)據(jù)的可靠性?
9. 在分析AI金融風控模型的訓練數(shù)據(jù)時發(fā)現(xiàn)存在較多缺失值,較為合理的處理方式是?
10.

某自動化貸款審批系統(tǒng)持續(xù)拒絕特定群體的申請,最可能的技術根源是?

11. 當新聞平臺廣泛采用個性化推薦算法時,最核心的潛在社會風險是?
12. 當政府廣泛采用AI輔助公共治理與決策時,最需要重點關注的潛在風險是?
13. 在完成課程作業(yè)時,你使用了AI工具生成學習建議,發(fā)現(xiàn)其中部分結(jié)論與你對課程內(nèi)容的理解不一致。此時,最優(yōu)的對應方式是?
14. 在使用AI工具整理課程知識點時,你發(fā)現(xiàn)其總結(jié)的重點與你記憶中課堂講授內(nèi)容存在明顯差異。此時,最合理的做法是?
15. 在小組作業(yè)中,你發(fā)現(xiàn)AI輔助生成的討論結(jié)論可能存在明顯片面性,進而影響小組最終成果。此時,最優(yōu)的應對方式是?
16. 在引用AI生成的研究摘要時,最合適的做法是?
17. AI健康監(jiān)測系統(tǒng)對個體給出異常預警結(jié)果時,最合適的處理方式是?
18. 當你懷疑某學習平臺推薦系統(tǒng)對不同學生存在不公平現(xiàn)象時,最優(yōu)的做法是?
19. 在學術作業(yè)中使用AI生成的數(shù)據(jù)圖表時,為確保結(jié)論可靠,首先應該?
20.

在高考志愿填報時使用AI推薦系統(tǒng)輔助選擇大學和專業(yè),最優(yōu)的做法是?

21.

在分析AI生成文本時發(fā)現(xiàn)偏差,為支持后續(xù)改進與決策,最適合的做法是?

22. 在小組討論中解釋AI分析結(jié)果時,最合適的做法是?
23. 在學校引入AI教學評估系統(tǒng)時,管理者、教師和技術人員等對待公平性分歧最優(yōu)的做法是?
24. 某城市計劃引入AI公共服務系統(tǒng),在面向市民的公開說明會上,最需要確保的是?
請根據(jù)您的真實感受,對以下陳述進行評分
25. 我會主動質(zhì)疑AI內(nèi)容的準確性。
26. 發(fā)現(xiàn)AI偏差時我會分析原因。
27.  我關注AI公平性與隱私問題。
28.

如果AI生成內(nèi)容很好,將其作為我自己的作業(yè)提交是可以接受的

29.

在使用AI內(nèi)容前,我有責任核查其事實與推理是否正確

30.

使用AI完成作業(yè)比我獨立完成任務更能有效幫助我學習。

31. 我愿意通過課程或?qū)嵺`活動提高AI素養(yǎng)。
32. 學習AI時,我同時關注技術、應用與倫理。
33. 我關心AI在公共決策中的應用。
34.  我愿意參與AI公平與倫理議題討論。
35. 我愿意就AI倫理問題發(fā)表意見。
36. AI在公共部門與社會領域的應用,應堅持公平、透明與可問責原則。
更多問卷 復制此問卷