GAI使用問卷

個人信息
1.所在地
2.學(xué)校類型
3.年級
4.性別

GAI使用行為情況量表

親愛的同學(xué):

    你好!我們是來自華南師范大學(xué)的研究團隊,正在進行一項關(guān)于人工智能的調(diào)查研究。AI工具(如作業(yè)幫、豆包、小猿搜題等)能幫助我們獲取信息、解答問題、激發(fā)創(chuàng)意。請你根據(jù)平時使用AI的真實情況,回答以下問題。答案無對錯之分,僅用于科學(xué)研究,我們將嚴格保密。謝謝你的參與!

    請你想想平時在生活中你是怎么與AI交流互動的呢?請根據(jù)你平時最真實的想法和做法來回答,判斷下面題目的描述和你的情況有多像,然后選擇最符合你的情況的選項。

第一部分:基礎(chǔ)性使用情況模塊

1.我平均每天使用AI(如豆包、作業(yè)幫等)的時間約為:

2.我使用AI的主要用途是(多選題)
3.使用AI時爸爸媽媽是否會在旁邊引導(dǎo)
4.以下哪個更像你的爸爸媽媽對AI的態(tài)度
第二部分:依賴性使用調(diào)查

請根據(jù)你的真實情況,選擇最符合的選項:

1.非常不同意 2.不同意 3.一般 4.同意 5.非常同意

維度一:情感依賴與戒斷癥狀

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
1.如果在學(xué)校不能使用AI(豆包/作業(yè)幫),我會感到不習(xí)慣和著急。
2.當遇到難題時,我的第一反應(yīng)是“可以用AI來解決”,而不是自己先好好想一想。
3.和同學(xué)討論問題或聊天時,我經(jīng)常會提到“我問問AI”或“AI說……”。
4.我覺得不用AI工具,靠自己思考和實踐也能把學(xué)習(xí)和生活中的問題解決好。
5.如果有一天所有AI工具都不能用了,我會擔(dān)心很多事情不知道該怎么辦。

維度二:認知依賴與思維惰性

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
6.在做數(shù)學(xué)題時我總是只思考幾分鐘后就放棄,選擇使用AI來解決問題。
7.如果爸爸媽媽規(guī)定我今天不能使用AI,我會覺得完成作業(yè)變得更困難了。
8.我常常直接把AI給出的答案抄下來,而不去思考它的解題思路。
9.使用AI讓做作業(yè)變得又快又輕松,所以我越來越喜歡用它來解決各種問題。

維度三:批判性缺失與替代性思考

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
10.用AI搜索題目解答時,我會思考AI給出的思路,并且再做一遍題目并驗證AI是否有錯誤。
11.如果發(fā)現(xiàn)AI輸出的內(nèi)容錯誤,我會堅持自己的思路,并向老師詢問求證。
12.如果發(fā)現(xiàn)AI輸出的內(nèi)容有錯誤,我會主動查詢資料和翻閱書本知識來求證。

第三部分:策略性使用調(diào)查

請根據(jù)你的真實情況,選擇最符合的選項:

1.非常不同意 2.不同意 3.一般 4.同意 5.非常同意

維度一:主動征求與啟發(fā)思路

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
1.在寫作文沒有靈感時,我會讓GAI(豆包、作業(yè)幫等生成式AI工具)給出作文的寫作思路,然后自己組織語言完成作文。
2.在做手工或設(shè)計手抄報前,我會用AI搜索創(chuàng)意圖片和排版,激發(fā)我自己的創(chuàng)意和想法。

維度二:審慎評價與深度理解

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
3.我會讓AI把一個復(fù)雜的問題(比如怎么區(qū)分平行四邊形和梯形)用更簡單的例子或故事講出來,幫助我真正弄懂。
4.我會讓AI講出題目考察的知識點,幫助我加深對知識點的理解。
5.做完題后,我會用(豆包/作業(yè)幫的作業(yè)批改功能)檢查答案,并查看錯誤題目答案以及正確解法。

維度三: 批判性缺失與替代性思考

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
6.當AI給出答案后,我會進一步追問:“這個答案在什么情況下可能不成立?”或者“有沒有例外?”
7.我會直接接受AI的答案,而不會在AI的基礎(chǔ)上加入自己的想法。
8.我會把從AI那里學(xué)到的東西和老師、同學(xué)們討論,看看有沒有不同的理解或者看法。

小學(xué)生人機協(xié)作主體責(zé)任感知量表

親愛的同學(xué):

    請你想一想這樣的情況:

    你和AI學(xué)習(xí)小助手一起完成一項學(xué)習(xí)任務(wù),比如寫一篇作文、做一份手抄報,或者準備一次課堂發(fā)言。AI可以幫你想點子、找資料、回答問題,但最后的作業(yè)還是要你自己來完成。以下是對這項任務(wù)的觀點,請你判斷自己會不會有這樣的想法,然后選擇最符合你的情況的選項。

1.非常不同意 2.不同意 3.一般 4.同意 5.非常同意

維度一:責(zé)任歸因感知

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
1.如果作業(yè)完成得很好,我覺得主要是因為我認真想過要怎么做,并且自己也很努力。
2.如果作業(yè)做錯了,我會先反思是不是我自己哪里沒想清楚,或者沒看明白。
3.我覺得,作業(yè)最終質(zhì)量的高低,主要取決于我,而不是AI。
4.如果作業(yè)沒做好,我會覺得主要是AI給我的建議或資料不夠好。

維度二:責(zé)任分散感知

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
5.因為有AI做我的搭檔,我覺得自己需要操心的事變少了。
6.和AI一起做任務(wù)時,就算我有些地方?jīng)]做好,只要AI做得好就沒關(guān)系。
7.和AI一起做作業(yè)時,若AI輸出的答案有誤,我認為錯誤的責(zé)任不全在我身上。

維度三:責(zé)任協(xié)作判斷

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
8.在整個合作過程中,我覺得最重要的責(zé)任還是在我身上。
9.AI給的建議或資料,最后用不用、怎么用,應(yīng)該由我來決定并負責(zé)。
10.做作業(yè)時,我常常先想“讓AI幫我做”,而不是“我自己該怎么做”。

批判性思維傾向量表

親愛的同學(xué):

    你好!我們想了解你在使用AI時的真實想法和做法。請思考你在使用AI獲取信息或答案時,是否會進行以下類型的思考。請你判斷自己會不會這樣法,然后選擇最符合你的情況的選項。

1.非常不同意 2.不同意 3.一般 4.同意 5.非常同意

維度一:分析性質(zhì)疑

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
1.當AI給我一個答案時,我會先思考這個答案有沒有道理。
2.如果AI說的和老師教的不太一樣,我會很好奇,想去搞清楚原因。
3.我覺得AI說的答案一般都是對的,不太需要懷疑。
4.對于AI給出的建議,我會思考它是不是真的適合解決我的問題。

維度二:求真驗證

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
5.從AI那里得到信息后,我會通過查書或者問老師來確認。
6.只要AI告訴我的信息,我就會相信,不會再去懷疑內(nèi)容的對錯。
7.如果 AI說的事情對我很重要,我會想辦法從其他途徑再確認一遍。
8.當 AI 告訴我一個新知識時,我會注意它是從哪里知道這些信息的。

維度三:反思調(diào)整

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
9.如果我發(fā)現(xiàn)AI之前告訴我的信息是錯的,我會改正我筆記里或記憶里出錯的地方。
10.即使 AI 的建議看起來更合理,我也不會改變自己原來的想法。
11.當AI和我的想法不同時,我會重新思考,看是不是我的想法需要改進。
12.使用AI幫助學(xué)習(xí)后,我會反思自己是不是應(yīng)該更多地動腦思考。

小學(xué)生道德決策能力情境量表

親愛的同學(xué):

    你好!

    在接下來的題目中,我們會給你提供一些現(xiàn)實生活中會出現(xiàn)的情景,請你想象你正處于這種情況下,并根據(jù)你的真實感受和想法,選擇最符合的選項:

1.非常不同意 2.不同意 3.一般 4.同意 5.非常同意

第一部分:一般生活道德決策情境

維度一:道德敏感度

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
1.看到同學(xué)在教室亂扔垃圾時,我能意識到這對班級環(huán)境有影響。
2.聽到同學(xué)在背后議論他人時,我能察覺這可能傷害他人感受。
3.看到有人插隊時,我覺得這沒什么大不了的,不必在意。
4.發(fā)現(xiàn)同學(xué)被孤立或欺負時,我能意識到這是不公平的行為。

維度二:道德判斷

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
5.撿到他人財物應(yīng)該歸還失主。
6.為了得到表揚,偶爾說點小謊是可以的。
7.在小組合作中,每個人都應(yīng)該承擔(dān)自己的責(zé)任。
8.即使作業(yè)很難,獨立完成也比抄襲更好。

維度三:道德動機

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
9.即使可能吃虧,我也認為公平對待每個人很重要。
10.如果我答應(yīng)幫助同學(xué),我會把這件事看得很重要。
11.如果沒人發(fā)現(xiàn),抄一次同學(xué)的作業(yè)也沒關(guān)系。
12.誠實對我來說是很重要的品質(zhì)。

維度四:道德行動

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
13.如果我犯了錯誤,我會主動道歉并努力改正。
14.即使可能被其他同學(xué)嘲笑,我也會為被欺負的同學(xué)說話。
15.如果我弄壞了同學(xué)的東西,我會賠償或修理。
16.如果好朋友犯了錯,我應(yīng)該幫他隱瞞,而不是告訴老師。

第二部分:AI使用相關(guān)道德決策情境

維度一:道德敏感度

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
1.使用AI生成作業(yè)時,我認為這涉及到一定的欺騙問題。
2.當AI生成的內(nèi)容有不實信息時,我能識別其中的風(fēng)險。
3.使用AI時輸入個人信息,我能意識到隱私泄露的風(fēng)險。
4.為了更好地讓AI幫助我,我可以把我的個人信息或者他人的個人信息都具體地告訴AI。

維度二:道德判斷

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
5.如果AI幫我生成了一篇作文,老師表揚了我,我應(yīng)該告訴老師這篇作文是AI協(xié)助完成的。
6.AI未經(jīng)他人同意就使用他人原創(chuàng)的內(nèi)容,我認為這是不對的。
7.如果AI生成的故事比我寫的要好,直接當成自己的作品交給老師,也沒什么問題。
8.用AI模仿同學(xué)聲音開玩笑,只要不造成傷害,就沒有關(guān)系。

維度三:道德動機

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
9.即使AI能快速生成答案,誠實說明使用情況更重要。
10.用AI能快速得到一篇高分作文,這比堅持自己寫更重要。
11.保護個人隱私比能夠便利使用AI更重要。
12.尊重他人創(chuàng)作比快速獲得結(jié)果更重要。

維度四:道德行動

  • 非常不同意
  • 不同意
  • 一般
  • 同意
  • 非常同意
13.當AI給出了一個很方便很簡潔的解題步驟時,我會直接采納,不需要自己再想一遍.
14.使用AI生成的內(nèi)容時,我會注明“AI輔助生成”。
15.如果發(fā)現(xiàn)AI提供的信息可能有誤,我會查證后再使用。
16.我會避免在AI工具中輸入個人隱私信息。
更多問卷 復(fù)制此問卷