Nhà nghiên cứu hỏi, thiên hạ trả lời

LÊ MY 23/10/2021 6:10 GMT+7

TTCT - Thế giới hàn lâm khoa học và TikTok xưa nay tưởng nước sông không phạm nước giếng, thế mà mới đây, hàng ngàn nghiên cứu khoa học lại lao đao vì một video TikTok dài 56 giây của một nữ sinh. Sự cố hy hữu này cũng mở ra nhiều điều về chuyện thu thập dữ liệu nghiên cứu thời Internet.

 
 Ảnh: Eliot Lim/Harvard Business Review


Đó là một ngày cuối tháng 7, Sarah Frank - vừa tốt nghiệp trung học ở Mỹ - ngồi trong phòng ngủ, tươi cười nói trước ống kính: “Chào mừng bạn đến với những việc làm thêm mà tôi khuyên bạn nên thử - phần một”. Chỉ tay vào trang web Prolific.co trên màn hình máy tính, Sarah thuyết minh: “Cơ bản đây là một đống khảo sát, với những mức thù lao khác nhau và tốn lượng thời gian khác nhau”. Việc làm thêm ở đây là trả lời chỗ bảng hỏi đó; Frank đã kiếm được khoảng 80 USD và muốn quay TikTok để chia sẻ nhiều người cùng biết.

Video thu hút hơn 4 triệu lượt xem trong vòng một tháng, đồng thời dẫn lối đưa đường cho hàng chục ngàn thành viên mới trên Prolific. Giới nghiên cứu, đặc biệt là lĩnh vực xã hội và hành vi, trước giờ vẫn tận dụng nền tảng này để tiếp cận các đội ngũ trả lời khảo sát với thành phần đa dạng. Có điều họ không ngờ rằng sẽ có ngày các nghiên cứu của mình bỗng “ngập lụt” với phần trả lời của đa số các cô gái trẻ trong độ tuổi mười mấy, đôi mươi...

Sự cố TikTok “va chạm” với Prolific trở thành ví dụ nóng hổi cho ưu và khuyết của crowdsourcing - mô hình giới khoa học dùng để mời gọi công chúng cùng tham gia nghiên cứu. Crowdsourcing có thể được hiểu là việc tập hợp một “đám đông” trên mạng, để thực hiện một mục tiêu chung trên cơ sở tự nguyện hoặc nhận thù lao như trả lời khảo sát, rã băng ghi âm, hay xác định đối tượng trên các bức ảnh chụp vệ tinh...

Tiện cả đôi đàng

Cái tên lâu đời nhất và lớn nhất trong lĩnh vực dịch vụ trung gian kết nối người tổ chức khảo sát và lực lượng trả lời bảng hỏi là Mechanical Turk (hay MTurk), do Tập đoàn Amazon ra mắt năm 2005. Thật ra, MTurk là nền tảng crowdsourcing phục vụ mọi thứ trên đời, nhưng các nhà khoa học xã hội đã sớm nhận ra nó có thể giúp họ giải quyết nhiều vấn đề mệt mỏi bấy lâu, liên quan đến phương pháp nghiên cứu bằng bảng hỏi. Thậm chí nó còn “thay đổi bộ mặt của khoa học xã hội”, theo lời Nicholas Hall, giám đốc Phòng thí nghiệm hành vi tại ĐH Stanford (Mỹ).

Hall giải thích với trang The Verge: “Trước khi có Mechanical Turk, tất cả các nghiên cứu khoa học xã hội phải diễn ra trong phòng nghiên cứu. Bạn sẽ phải tập hợp các sinh viên năm hai và bắt họ trả lời các câu hỏi, bảng khảo sát và những thứ tương tự. Đó là công việc ngốn rất nhiều thời gian và nhân lực. Nghiên cứu trực tuyến đã giúp nó dễ dàng hơn rất nhiều. Bạn lập trình một bảng khảo sát... bạn đưa nó lên mạng và trong vòng một ngày, bạn có 1.000 lượt trả lời”.

Như vậy, nguồn nhân lực dồi dào trên mạng đã giải phóng cho bao thế hệ sinh viên năm dưới. Điểm này lại dẫn đến cái lợi thứ hai: người tham gia đa dạng, được chọn ngẫu nhiên, giúp mẫu nghiên cứu có tính đại diện cao hơn cho quần thể nghiên cứu. Tuy trước đây, người ta vẫn có thể tổ chức khảo sát trong cộng đồng, nhưng lựa chọn đó thường đòi hỏi họ phải di chuyển, tìm kiếm và thuyết phục người dân... Vì thế, lợi ích thứ ba của các nền tảng khảo sát trực tuyến là tiết kiệm công sức và thời gian.

Những thuận tiện kể trên đã giúp thúc đẩy nhiều đề tài nghiên cứu thú vị, sáng tạo trong các ngành xã hội và nhân văn. Chẳng hạn, một nghiên cứu ở Mỹ năm 2014 gợi ý rằng: người dân thường vô thức mặc định cơn bão nào mang tên đàn ông thì mới đáng lo, dẫn đến thực tế là có nhiều người chết hơn trong các trận bão được đặt tên nữ tính. Một phần dữ liệu nghiên cứu đến từ khảo sát 142 người dùng MTurk, độ tuổi trải dài từ 18 đến tận 81, thu thập chỉ bằng vài cái click chuột.

 
 

Thù lao còm cõi

Vì không có quy định chung về thù lao tối thiểu và tối đa, người kiếm tiền trên MTurk đôi khi nhận được chưa tới một đôla cho mỗi đầu việc. Vậy mà vẫn có rất nhiều người sẵn sàng kiếm tiền bằng việc trả lời bảng hỏi, cũng làm hàng tá nhiệm vụ đơn điệu khác. Trong một bài luận về luật lao động và nền công nghiệp crowdsourcing (2011), luật gia Alek Felstiner của ĐH California - Berkeley (Mỹ) đã tiết lộ thân phận những “công nhân” của MTurk: người cao tuổi về hưu với thu nhập hạn chế, người đang thất nghiệp cần đóng tiền nhà, hay giáo viên với đồng lương ít ỏi...

Danh nghĩa “cung cầu gặp nhau” vẫn thường che khuất những bất công. Năm 2017, một nghiên cứu của ĐH Cornell (Mỹ) khảo sát thu nhập của hơn 2.600 lao động tự do trên MTurk với 3,8 triệu nhiệm vụ đã được hoàn thành và phát hiện trung bình mỗi người chỉ kiếm được khoảng 2 USD mỗi giờ. Tại thời điểm đó, mức lương tối thiểu của Mỹ là 7,25 USD/giờ và chỉ có 4% người được khảo sát trên MTurk vượt qua mốc thu nhập này.

Vì vậy, có lẽ hạn chế lớn nhất của phương pháp khảo sát trực tuyến thông qua các dịch vụ như MTurk, CrowdFlower, Clickworker, Toluna... chính là vấn đề đạo đức. Lâu nay, cộng đồng học thuật không lạ gì mấy vụ cắt giảm kinh phí nghiên cứu. Hoặc đôi khi, lợi thế cạnh tranh của một đề tài đi liền với cam kết chi tiêu tiết kiệm, bởi vì nguồn tài trợ khan hiếm. Và thỉnh thoảng, nghiên cứu viên ước lượng một bảng hỏi kéo dài khoảng 15 phút, nhưng trong thực tế, nhiều người loay hoay gần một giờ mới hoàn thành. Thế nhưng, không hoàn cảnh nào cho phép các nhà nghiên cứu, với việc làm và thu nhập ổn định, vô tình hoặc cố ý khai thác lao động giá rẻ của những người có cuộc sống bấp bênh hơn.

Trước những lo ngại về quyền lợi của người lao động tự do trên mạng, nền tảng Prolific nêu cao tôn chỉ “thưởng phải có đức”. Trang này khuyên khách hàng của mình trả thù lao công bằng để nhận lại dữ liệu chất lượng, tốt nhất là trên 9,6 USD/giờ và chắc chắn không thấp hơn 6,5 USD. Quy định được mức tối thiểu là nhờ Prolific phục vụ riêng cho công việc nghiên cứu, chứ không hỗn tạp như MTurk.

Trang web này cũng không quên nhắc nhở: “Điều quan trọng cần nhớ là Prolific không nhằm trở thành một công việc toàn thời gian, mà là nền tảng cho các nghiên cứu vui vẻ, không thường xuyên!”.

Cách thức hoạt động của những công cụ crowdsourcing nhìn chung như sau. Đầu tiên, nghiên cứu viên tạo một “công việc”, về cơ bản bao gồm nội dung khảo sát, số lượng và đặc điểm của đối tượng nghiên cứu, số tiền trả cho mỗi lượt trả lời. Đồng thời, nghiên cứu viên cần “nạp tiền” cho nền tảng.

Khi đó, nền tảng thông báo “công việc” mới đến nguồn thành viên đông đảo sẵn có. Người nào phù hợp với nghiên cứu thì nhận “việc”, tức là trả lời khảo sát. Sau khi hoàn thành, người tham gia nhận phần thù lao bằng nhau, không phụ thuộc vào thời gian họ đã bỏ ra trong thực tế. Cuối cùng, nền tảng sẽ tính phí hoa hồng trên mỗi lượt trả lời thành công, khoản này do nhóm nghiên cứu chi trả. 

Đa dạng quá cũng khổ

Mặc dù sự tham gia nhiệt thành của công chúng là một phần động lực để các học giả mang công chuyện nghiên cứu lên cõi mạng, nhưng đôi lúc nó trở thành vấn đề. Thứ nhất, phải nhắc đến những bậc thầy trong “nghề” điền khảo sát. Họ là người lao động tự do nhưng... toàn thời gian trên các nền tảng crowdsourcing. Nhờ kinh qua đủ loại bảng hỏi, họ dường như đoán được ý đồ và thủ thuật của những người thiết kế khảo sát.

Và như thế, kết quả thí nghiệm có thể bị sai lệch nếu người tham gia cố tình chọn câu trả lời để làm hài lòng các nhà nghiên cứu. Cơ chế thưởng thêm tiền hay đánh giá tốt cho những bài trả lời chất lượng càng cho họ động cơ. Đây là một phần lý do nhiều người vẫn nghi ngại tính hợp lệ của các khảo sát trực tuyến dạng này.

Vấn đề thứ hai thiên về kỹ thuật, đó là làm sao sàng lọc người tham gia phù hợp với nghiên cứu. Ví dụ có một khảo sát chỉ dành cho đối tượng kỹ sư U30, nếu sử dụng các nền tảng “thập cẩm” như MTurk, nghiên cứu viên thường có 2 phương án. Một là thông báo trước tiêu chí, nhưng người tham gia có thành thật hay không thì... trời mới biết. Hai là bí mật đưa câu hỏi sàng lọc vào bảng hỏi, sau đó loại bỏ tất cả phản hồi từ những ai không phù hợp, dù họ đã bỏ vào ít nhiều thời gian và ý tưởng. Trên trang blog của công ty, Ekaterina Damer, nhà tâm lý học đồng sáng lập Prolific, gọi cách làm thứ 2 là “gây khó chịu một cách không cần thiết”.

Prolific vốn được đánh giá cao bởi cơ chế chi trả công bằng và sàng lọc đối tượng hiệu quả hơn mặt bằng chung, cho đến khi xảy ra sự cố TikTok. Khoảng 4.600 nghiên cứu đã bị ảnh hưởng bởi cơn lốc “phụ nữ” mà Sarah Frank vô tình tạo ra. Theo Phelim Bradley, đại diện kỹ thuật của Prolific, công ty này đã hoàn tiền cho các nghiên cứu bị ảnh hưởng nặng nề, và giới thiệu một bộ công cụ sàng lọc mới. Họ còn cắt cử một nhóm phụ trách nhằm phát hiện và phản ứng với các sự cố tương tự trong tương lai.

Hiệu ứng của đoạn TikTok cũng không hoàn toàn xấu, theo Vlad Chituk, một chuyên gia tâm lý tại ĐH Yale (Mỹ), có nghiên cứu bị ảnh hưởng lần này. Sự cố như một dịp để “làm mới” nguồn nhân lực tham gia khảo sát, góp phần hạn chế hoạt động của các “bậc thầy bảng hỏi” đã bàn ở trên, giúp thu thập dữ liệu chất lượng hơn. “Phụ nữ trẻ yêu thích TikTok cũng là con người mà” - anh nói với The Verge.

Về phần mình, Sarah hiện đã tạm ngừng bán thời gian trả lời bảng hỏi, để tập trung làm sinh viên năm nhất.

MTurk vẫn chưa nhận đối tác từ Việt Nam, còn Prolific thì chưa nhận người tham gia ở ngoài các nước OECD (Tổ chức Hợp tác và phát triển kinh tế, gồm các nền kinh tế phát triển) và Nam Phi.

Bình luận
    Viết bình luận...