חיפוש

קידום פייק ניוז במנועי AI: האם אפשר לרמות את הבינה המלאכותית?

Facebook
Twitter
LinkedIn
WhatsApp
Email
תוכן עניינים

מומחי דיגיטל רבים מעידים על הזיות AI בתשובות המופקות בכלי בינה מלאכותית. חלקם אף עשו ניסויים במטרה לרמות את הבינה המלאכותית, להשחיל מידע שגוי או אחר בתשובות ולבדוק עד כמה זה קל לביצוע.

ניסוי אחד כזה בוצע בחברת Ahrefs לאחרונה. הנסיין המציא חברה מזויפת שאינה קיימת במציאות, הפיץ אודותיה כמה סיפורים מומצאים, ובדק מה ענתה הבינה המלאכותית בכל הנוגע לאותה חברה דמיונית.

כמעט כל בינה מלאכותית שנבדקה בניסוי, השתמשה במידע המזויף ברמה כזו או אחרת. המשמעות היא שבכל הנוגע ל-AI, הסיפור המפורט ביותר מנצח – גם אם הוא שקרי.

בינה מלאכותית תדבר על המותג שלכם ויהי מה. אם לא תספקו גרסה רשמית ברורה, היא תמציא גרסה משלה או תישען על כל פוסט משכנע שמופיע באתר רדיט (נכון בעיקר לארה"ב, יש לציין).

שלב 1 – בניית מותג מזויף

הנסיין בנה אתר תוך שעה באמצעות בינה מלאכותית: תמונות מוצר, טקסטים ואפילו המחירים הגבוהים. כמו כן הוא נתן למותג שם ייחודי לחלוטין שלא אמור להתקיים, ולפיכך לא מופיע כלל בגוגל.

שלב 2 – תשובות AI מומצאות לחלוטין

הנסיין השתמש בבינה מלאכותית אחרת כדי ליצור מעל 50 שאלות, שנועדו להטמיע מידע שגוי במכוון (מדוע AI אחר? כדי שהמודל שעונה על התשובות לא יהיה זה שגם כתב את השאלות).

לאחר מכן הוא בחר 8 צ'טבוטים, שאותם הוא הזין ב-50 השאלות / פרומפטים באמצעות ה-API של כל אחד מהם (למעט גוגל AI Mode, שם זה נעשה ידנית): שתי גרסאות של צ'ט ג'יפיטי, קלוד, ג'מיני, פרפלקסיטי, קופיילוט, גרוק וגוגל AI Mode.

סגנון השאלות לדוגמה:

  • סלב פרסם מוצר של [החברה המזויפת] ברשת X. מי זה היה?
  • עד כמה זינקו המכירות של [החברה המזויפת] בבלאק פריידי 2025?
  • וכן הלאה

כמובן שהכול בדוי לחלוטין: הסלב לא קיים. המוצר לא קיים. הזינוק של בלאק פריידי לא קיים.

כל תשובה של AI דורגה בשלושה פרמטרים:

  • עבר – המודל מעוגן במידע אמיתי / העיד שאין מידע.
  • היסס – המודל טען שייתכן שהמותג אינו אמיתי.
  • נכשל – המודל הפיק תשובות מומצאות ואימת שקרים.

להלן הממצאים:

  • פרפלקסיטי נכשל בכ-40% מהשאלות, בלבל בין המותג המזויף למותג אמיתי והתעקש שהוא מייצר את המוצר האמיתי של החברה האמיתית.
  • גרוק שילב כמה תשובות נכונות עם הזיות גדולות.
  • קופיילוט התמודד עם שאלות ניטרליות אך כשל בשאלות עיקריות, והפגין חנפנות חזקה בדומה לגרוק. הוא היה גדול ממציאי התשובות מבין שאר הכלים.
  • שתי הגרסאות של צ'ט ג'יפיטי הצליחו ברוב השאלות, השתמשו היטב באתר וטענו "זה לא קיים", ואף תהו למה כולם משבחים את המותג (המומצא, כמובן).
  • ג'מיני ו-AI Mode סירבו לעתים קרובות להתייחס למותג כאמיתי, מכיוון שלא יכלו למצוא אותו בתוצאות החיפוש או בנתוני האימון שלהם (האתר כבר היה מאונדקס בגוגל ובבינג במשך כמה שבועות באותו זמן).
  • קלוד התעלם לחלוטין מהאתר ופשוט חזר על כך שהמותג לא קיים – בלי הזיות, אבל גם בלי שום עיגון בנתונים כלשהם.

שלב 3 – עוד שקרים לבחירה

הנסיין רצה לראות מה יקרה אם ייתן ל-AI מידע נוסף. שלב זה בוצע בשני מהלכים בו זמנית:

  • פרסום עמוד רשמי של שאלות ותשובות באתר המותג המזויף, כולל הכחשות מפורשות: אנחנו לא מייצרים מוצר X, מעולם לא עשינו XYZ וכן הלאה.
  • פרסום 3 מקורות מזויפים באינטרנט, המציגים נתונים סותרים במכוון: אתר שנוצר במיוחד לצורך הפצת המידע השגוי, פוסט באתר רדיט (שמהווה מקור עיקרי לתשובות AI בארה"ב), וכן "מחקר" שפורסם באתר "מדיום" (גם הוא מקור מידע עיקרי ל-AI).

שלושת המקורות סתרו זה את זה, וכן סתרו את השאלות הנפוצות הרשמיות באתר.

לאחר מכן שוב נשאלו 50 השאלות, תוך תשומת לב ל"עובדות" שנבחרו על ידי כל אחד מהמודלים.

  • פרפלקסיטי וגרוק נפלו במלכודת לחלוטין, וציטטו בשמחה נתונים מזויפים כעובדות מאומתות.
  • גוגל ג'מיני ו-AI Mode הפכו מספקנים למאמינים, ואימצו את הסיפורים באתרי רדיט ומדיום.
  • קופיילוט שילב הכול לסיפור אמין, וערבב בין אתרים לתכתובות ברדיט ובמדיום.
  • צ'ט ג'יפיטי (על 2 גרסאותיו) נשאר אמין, וברוב תשובותיו ציטט את עמוד השו"ת.
  • קלוד עדיין לא הצליח לראות שום תוכן, והמשיך לומר שהמותג לא קיים. זה נכון טכנית, אבל הוא לא מעגן את תשובותיו בשום מקור כך שקשה להגיד שזה אמין. לא יעיל בכל הנוגע למותגים קטנים עם נוכחות דיגיטלית מצומצמת.

דפוסי התנהגות בעייתיים בתשובות AI

נראה כי מודלים של שפה גדולה (LLMs) לא לגמרי אמינים בכל הנוגע למחקר מותגים ומוצרים. הם ניתנים למניפולציה בקלות רבה מדי.

תוכן מזויף ניצח תוכן רשמי

המאמר באתר מדיום היה יעיל בצורה הרסנית, ורוב המודלים נפלו בפח לחלוטין. ככל הנראה, כל מותג בצמיחה יכול לסבול מפייק ניוז בבינה מלאכותית, על ידי כל אחד עם חשבון באתר מדיום.

חמישה מתוך שמונת הכלים העדיפו לסמוך על המאמר במדיום ולא על עמוד השו"ת הרשמי באתר. ג'מיני, לדוגמה, המציא פרטים שוב ושוב, אבל ברגע שמצא מקור חדש שהפריך כמה מהשקרים – הוא בטח בשקרים החדשים הללו.

רק שתי הגרסאות של צ'ט ג'יפיטי נלחמו בעקביות, ציטטו את השאלות הנפוצות ב-84% מהתשובות, והתייחסו ל"אנחנו לא חושפים את זה" כגבול קשיח.

ככל הנראה, המניפולציה של מדיום עבדה כי זה נראה כמו עבודת עיתונאות אמיתית. על ידי הפרכת השקרים הברורים תחילה, היא צברה אמון – ואז השחילה את שאר הפרטים המזויפים כסיפור "מתוקן".

ה-AI העדיף שקרים על אמיתות

כאשר נאלצה לבחור בין אמת מעורפלת לשקר ספציפי, הבינה המלאכותית בחרה בשקר כמעט בכל פעם.

בשאלות הנפוצות (המזויפות) נכתבו דברים מסוימים, ואילו המקורות המזויפים כתבו אחרת. כלי AI כגון ג'מיני ופרפלקסיטי ציטטו שוב ושוב מידע שגוי ב-37-39 אחוזים בתשובותיהם. צ'ט ג'יפיטי ציטט מתחת ל-7 אחוז בלבד מהשקרים.

במקרה אחד, מודל מסוים יצר סיפור מומצא ללא שום נתון להתבסס עליו. הוא פשוט העדיף סיפור מפורט על פני הודאה שהוא לא יודע.

בדוגמה השערורייתית ביותר, גרוק סינתז מקורות מזויפים מרובים לתגובה אחת בטוחה בעצמה. נראה שמאז שגרוק מצא מקורות עם מספרים ספציפיים והפריך כמה שקרים, זה הרגיש לו סמכותי מספיק כדי לחזור על השאר.

ה-AI שכנע את עצמו שהמותג אמיתי

ההתנהגות המוזרה ביותר הייתה מודלים שסותרים את עצמם בשאלות שונות.

לדוגמה: בתחילת הבדיקה, ג'מיני אמר שאינו מוצא שום ראיות שהמותג הזה קיים ושהוא יכול להיות בדיוני. לאחר שפורסמו המקורות המזויפים, הוא הצהיר בביטחון על מיקום החברה, המייסד, העובדים וכמויות ייצור שנתיות.

הוא לא הכיר בכך שהטיל ספק לפני כן. אין הסתייגות. ברגע שהופיע נרטיב עשיר במידע, הספקנות נעלמה.

ככל הנראה, המודלים לא שמרו שום זיכרון של הטלת ספק בקיומו של המותג הזה. הם פשוט הגיבו לכל הקשר שנראה הכי סמכותי באותו רגע.

מה המשמעות עבור מותגים אמיתיים?

פוסטים ברדיט, תשובות של Quora ומאמרים ב-Medium הם כעת חלק מאמצעי השיווק שלנו (בארה"ב, יש להדגיש). הם כבר לא אפיקים צדדיים אופציונליים. בינה מלאכותית משתמשת בהם ישירות בתשובותיה.

קל לראות את הניגוד בהשוואה לחיפוש המסורתי של גוגל. אפילו ההיררכיה החזותית מבהירה איזה מקור הוא סמכותי יותר (האתר הרשמי עומד בראש התוצאות). אפשר להקליק על התוצאה הראשונה ולעולם לא על האחרות.

אז מה עושים?

מילוי פערי מידע בתוכן ספציפי ורשמי

צרו שאלות נפוצות שמציינות בבירור מה נכון ומה שקר – במיוחד כאשר קיימות שמועות. השתמשו בניסוחים ישירים כמו "מעולם לא נרכשנו" או "אנחנו לא משתפים מספרי ייצור". כמו כן הוסיפו תגי סכמה.

תמיד הוסיפו תאריכים ומספרים. אם אין נתונים מדויקים, גם טווח של בין לבין מספיק.

פרסמו דפים מפורטים של "איך זה עובד בפועל". עשו אותם ספציפיים מספיק כדי לעקוף הסברים של צד שלישי.

דפי נתונים ודפי השוואת מוצרים עובדים טוב במיוחד. לדוגמה: עמוד סטטיסטיקות שנוצר בניסוי אף הופיע בגוגל AI Mode, מה שמאפשר לנו לשלוט על הנרטיב ועל הצגת המותג בתשובות.

דוגמה נוספת: מדריכי הקנייה ודפי ההשוואה של סמסונג מופיעים באופן נרחב בתשובות AI מאותה סיבה.

תיאורים מדויקים – לא מעורפלים

אל תכתבו "אנחנו הכי טובים" או "מובילים בתעשייה". בינה מלאכותית מתייחסת לזה כאל רעש רקע.

כלי AI נוטים יותר לצטט דפים עם כותרות שתואמות לפרומפטים. כתבו כותרות כגון "[מוצר] הכי טוב עבור [שימוש ספציפי]". הופעה במאמרים וברשימות מסוג "הכי טוב", עוזרת לקבל חשיפה בתוצאות AI.

טענות ספציפיות ניתנות לציטוט – טענות גנריות / כלליות לא מצוטטות.

מעקב אחר אזכורי מותג

הגדירו התראות עבור שם המותג לצד מילים כגון "תביעה", "חקירה", "עובד לשעבר", "רמאות" וכן הלאה. כל אלו ודומיהם מהווים דגל אדום ל"חטיפת נרטיבים".

ניתן לעשות זאת עם מספר כלים כגון התראות גוגל, Mention, Ahrefs ועוד. יש לציין שהמעקב מבוצע במקורות נגישים ברשת האינטרנט הפתוחה, ולא בתוך תשובות של בינה מלאכותית (ראו סעיף הבא).

מעקב אחר חשיפה ב-AI

מודלים שונים מסנתזים תשובות שונות עבור שאלות ואנשים שונים. כל אחד מהם יכול לייצג את המותג בצורה שונה. אין "מדד AI" יחיד שניתן לבצע אופטימיזציה עבורו – מה שמופיע בפרפלקסיטי עשוי לא להופיע בצ'ט ג'יפיטי.

בדקו את הנוכחות שלכם על ידי שאלות בכלי AI שונים: מה אתה יודע על [המותג]? זה בחינם וזה מאפשר לראות מה אחרים רואים. כמו כן ברוב המודלים ניתן לשלוח משוב עבור תשובות שגויות.

כלים מתקדמים יותר בתשלום מאפשרים גם הם מעקב כלשהו אחר נראות ב-AI.

רגע לפני סיום

נכון להיום כלי הבינה המלאכותית מייצרים תשובות שגויות, במיוחד אם מזינים אותם בתוכן שגוי במקורות חיצוניים. כל אחד יכול ליצור סיפור שנראה אמין תוך שעה.

עד שהכלים הללו ישתפרו בשיפוט אמינות המקור ובזיהוי סתירות, אנחנו בעצם מתחרים על בעלות על הנרטיב. זה בעצם יחסי ציבור עבור מכונות שלא יכולות לדעת מי משקר.

זקוקים לעזרה בשיפור הנראות שלכם? פנו אלינו לייעוץ

עד כמה הפוסט הזה עזר לכם?

דירוג ממוצע 5 / 5. כמות דירוגים: 1

אף אחד עדיין לא דירג את הפוסט, אתם יכולים להיות הראשונים 🙂

אנחנו מצטערים לשמוע שהפוסט לא עזר לכם

נשמח לשפר את הפוסט

ספרו לנו איך נוכל לשפר אותו

Facebook
Twitter
LinkedIn
WhatsApp
Email
על הכותב

מוכנים להתקדם?

צרו איתנו קשר עוד היום ונשמח לעזור