גלה תאימות על ידי סימן גלגל המזלות
שאל את האתיקאי: האם נכון לפייסבוק לדכא חדשות שמרניות?
אתיקה ואמון

תמונה מאת דייב פאפ דרך פליקר.
Gizmodo הצית היום סערת אש במדיה החברתית דיווח האוצרים של מדור ה'טרנדיים' של פייסבוק שמים בקביעות את הקיבוש על ידיעות חדשותיות בעלות נטייה ימינה.
הסיפור, המיוחס למקורות אנונימיים, היה בולט בין השאר בגלל מעמדה של פייסבוק כחברת תקשורת שמכוונת צינור אש של תנועה לעבר ארגוני חדשות מדי יום. אבל היא גם הכתה גלים כי פייסבוק התאמצה להציב את עצמה כמתווך לא מפלגתי לחדשות, חברה שמגישה כתבות ללא נטייה. ב תגובה לסיפורו של גיזמודו, פייסבוק אמרה כי היא מתייחסת להאשמות על הטיה 'מאוד ברצינות' ואישרה את מחויבותה לספק דעות 'בכל הקשת הפוליטית'.
בתוך קצת יותר מעשור, פייסבוק הפכה מסטארט-אפ של חדרי מעונות ל אחד מהגדולים ביותר מפיצים של חדשות ומידע ברחבי העולם. אז איך עלינו להגיב כשאחד המתווכים החשובים ביותר לעיתונות מתגלה כמורכב מבני אדם עם הטיות אנושיות? להלן פגישת שאלות ותשובות עם קלי מקברייד, סגנית נשיא מכון פוינטר והמוסר התקשורתי שלו, על המשמעות של הדיווח של היום עבור תעשיית החדשות.
אם הטענה של Gizmodo מדויקת ואוצרי החדשות של פייסבוק נמנעו בכוונה מחדשות שמרניות, האם זה מהווה בעיה? אם כן, מדוע?
זו בעיה מכיוון שהיא מדגימה את היכולת לתמרן את שוק הרעיונות מאחורי הקלעים. זה לא חדש, אבל זה פוגע בתומכי המדיה החברתית שאומרים שפייסבוק היא פורום הפצת חדשות דמוקרטי יותר.
אנחנו יודעים מזה זמן רב שלאלגוריתמים יש הטיות מתוכנתות בתהליך הבחירה שלהם. אבל הטענה הזו שבני אדם עוקפים את תהליך הבחירה מערערת את כל הרעיון של רשימות חדשות והזנות אלגוריתמיות. זה מרמז לי שלפייסבוק לא הייתה אמון מוחלט בבסיס המשתמשים שלהם. זה נכון במיוחד כאשר לוקחים בחשבון את טענת המקור האנונימי כי הצוות קיבל הוראה למצוא מקור ניטרלי יותר למידע שהיה מגמתי על סמך דיווח ראשוני מאתר שמרני.
אני חושד שיש מידע נוסף על הנוהג הזה, המתואר על ידי מקורות ללא שם, שיעזור לנו להבין מה פייסבוק ניסתה להשיג. כי זה לא הגיוני לעסקים שפייסבוק תפעל בסתר נושאים מגמתיים על סמך נקודת מבט פוליטית.
האם זה לא ירחיק חלק גדול מהמשתמשים שלהם? חייבים להיות פרטים נוספים שיעזרו לנו להבין זאת. אולי, כפי ששיער מקור אחד, הם חידדו את האלגוריתם?
ארגוני חדשות ברור יש הטיות על מה שהם בוחרים להציג. האם ההעדפה של פייסבוק כאן באמת שונה מעיתון, תחנת טלוויזיה או סטארט-אפ דיגיטלי?
לקהל זה קצת יותר קשה להבחין, אז זה פחות שקוף ולכן שונה. קל יותר לזהות הטיה אנושית כשאתה יודע לחפש אחת כזו. עד עכשיו, חשבנו שצוות הנושאים הפופולריים רק כותב כותרות ותיאורים, ולא ממש משפיע על ההבנה שלנו לגבי הטרנד.
הסיפור הזה מגלה שההמלצות של פייסבוק לא לגמרי מונעות אלגוריתמית - הן נוצרות בחלקן על ידי בני אדם, עם העדפות אנושיות. האם יש צעדים שפייסבוק יכולה לנקוט כדי להפחית את ההטיה בבחירות שלה?
אם אתה רוצה שהקהל יבטח בך, שקיפות היא תמיד התשובה בין אם אתה מדבר על הטיה אנושית או על הטיית מכונה. זה קל יותר לומר מאשר לעשות, בשני המקרים. קשה לבני אדם לתאר במדויק את ההטיות שלהם. ואלגוריתמים צריכים קצת אטימות אם הם הולכים להיות עמידים בפני מניפולציות.
אם פייסבוק תוכל לספר לנו יותר על הרשאות האלגוריתם ומה האלגוריתם פוסל, זה יעזור. אם פייסבוק הייתה יכולה להגיד לנו גם מה בני האדם עושים ומה לא עושים, היה לנו יותר מידע ממה שיש לנו עכשיו ויותר סיבה לסמוך על מה שאנחנו רואים.
פייסבוק היא קובעת עצומה של החדשות שאנו רואים באינטרנט. האם יש לה אחריות להיות שקוף לגבי האופן שבו זה מגיש לנו סיפורים?
כמניע מספר 1 של קהל לאתרי חדשות, פייסבוק הפכה לכוח הגדול ביותר בשוק הרעיונות. עם ההשפעה הזו באה אחריות משמעותית. ישנן דרכים רבות שבהן פייסבוק תוכל לעמוד באחריות הזו. בעבר, פייסבוק אישרה שהיא מכירה בחובותיה הדמוקרטיות. אבל זה תמיד יכול לעשות יותר.
האם יש עוד צעדים שפייסבוק יכולה לנקוט?
הנה רעיון מטורף: מה אם לפייסבוק (ולחברות אחרות שיש להן יכולת ברורה להשפיע על שוק הרעיונות) היה עורך ציבורי, כמו הניו יורק טיימס. אותו אדם יוכל לחקור ולכתוב על החברה מנקודת מבטו של הציבור, לענות על שאלות ולהסביר את הערכים המניעים החלטות מסוימות.
העורך המנהל של פוינטר, בנג'מין מולין, תרם לדוח זה.