מדריך למקבלי החלטות – חלק 2
שאלה שכל מנהל שיווק צריך לשאול את עצמו:
"האם אני באמת יכול לסמוך על הנתונים שמנחים את תקציבי הפרסום שלי?"
למה בכלל יש בעיה? הרי DDA מבוסס על בינה מלאכותית.
זוהי בדיוק הליבה של הבעיה: מערכת חכמה מאוד, אך לא שקופה.
כאשר Google מציעה לך מודל אטריביוציה "מונחה דאטה" (Data-Driven Attribution), אתה מקבל תחושת ביטחון — שהאלגוריתם מנתח אלפי מסעות משתמשים, מחשב הסתברויות, ומחלק קרדיט לפי ההשפעה האמיתית. אבל… איך הוא עושה את זה בדיוק?
אין תשובה ברורה.
המפרסם מקבל מסקנה ("קמפיין A תרם 73% מהמרה"), אך אינו רואה:
- איזה touchpoints נותחו?
- מהם הקריטריונים של המודל לזיהוי "תרומה משמעותית"?
- אילו מודלים נלמדו מאחורי הקלעים? ומהי רמת האמון בנתונים?
מתי חוסר השקיפות הופך לבעיה תקציבית?
כאשר אתה מחליט על הפסקת קמפיין, שינוי אסטרטגיית בידינג, או העברת תקציב מערוץ לערוץ – אך מבסס את ההחלטה על נתון שמבוסס על חישוב לא ברור, אתה למעשה מהמר על בסיס חלקי. זה מחמיר כשמדובר בתקציבים גדולים, או בקמפיינים עם תפקיד אסטרטגי (לדוגמה: משפיענים, קמפיינים ממותגים, YouTube או תוכן עליון).
אילו סוגי הטיות קיימות בתוך DDA?
כפי שתיארו זאת נרחב במחקר מאוניברסיטת ליידן בהולנד (van den Broek & Veenstra, 2024), קיימות שלוש הטיות עיקריות שמערכות מבוססות DDA חשופות אליהן:
- הטיית מיקום (Positional Bias) – קמפיינים קרובים להמרה (bottom-funnel) מקבלים יותר קרדיט גם אם לא יצרו ביקוש אמיתי.
לדוגמה: גולש חיפש "שם החברה", לחץ על מודעה ממותגת, והמיר – כל הקרדיט יינתן ל-PMax למרות שמודעת העל (YouTube למשל) יצרה את הביקוש. - הטיית קונברסיה מבוססת תיוג שגוי (Tagging Drift) – כאשר אירועי ההמרה אינם מתויגים בצורה אחידה, האלגוריתם עשוי ללמוד דפוסים שגויים.
זה נפוץ מאוד כשיש שילוב בין GA4, Google Ads, Meta ואירועים ב-CRM. - הטיית overfitting של Machine Learning – האלגוריתם לומד "מה שקרה" אבל לא תמיד מבין למה זה קרה. כלומר, המודל עלול להעדיף קמפיינים שקרו בסמוך להמרות מסיבה חיצונית (עונתיות, מבצע אוף־ליין) ולא באמת יצרו ערך.
מחקרים עדכניים מהשנים האחרונות
1. Cichy et al. (2024) – Warsaw School of Economics
במחקר רחב שכלל 120 מפרסמים ב־Google Ads, נמצא ש־DDA הקצה באופן קבוע יותר מ־30% מההמרות לקמפיינים ממותגים (Branded Search), גם כאשר הנוכחות הממותגת הייתה קיימת עוד לפני תחילת הקמפיין. החוקרים הזהירו ש־DDA “מנפח ביצועים” כאשר אין ניטור חיצוני או קבוצות בקרה.
2. Digital Marketing Attribution Under Privacy Constraints (MIT, 2023)
המאמר טוען כי מודלי DDA כמו כאלה שמשתמשים בהם בגוגל אדס, מאבדים דיוק ככל שרמת ההשפעה של פרטיות עולה (למשל חסימת cookies). כתוצאה מכך, האלגוריתם נאלץ להעריך תרומות התנהגותיות על סמך דאטה חלקי – מה שמוביל לירידה של 15–20% בדיוק בחלוקת הקרדיט.
3. Google Ads Attribution Audit – SparkToro & Seer Interactive (2023)
סקר שבוצע בקרב 70 מנהלי פרסום בכירים, גילה ש־41% מהם זיהו מקרים שבהם DDA של Google סתר את הממצאים של GA4 או CRM פנימי. במילים אחרות – המדידה לא עקבית בין מערכות, וגורמת לבלבול בקבלת החלטות.
אז למה בכל זאת כולם משתמשים בזה?
- זה ברירת המחדל החדשה – Google הגדירה את DDA כמודל ברירת מחדל בחשבונות שעמדו ב"סף נתונים". במקרים רבים המפרסם אפילו לא בחר במודל.
- אין אלטרנטיבה נוחה באקוסיסטם של Google – מודלים אחרים כמו Time Decay, Linear או Position-Based נחשבים לנחותים מבחינה אנליטית או שאינם נתמכים ב־Performance Max.
- זה "עובד יפה" במספרים – בגלל שה-DDA יודע לחלק קרדיט חכם יותר, הוא מציג ROAS משופר — גם אם זה לא אינקרמנטלי.
מתי אתה חייב לבדוק את ה-DDA שלך?
- כשאתה רואה עלייה בביצועים ללא שינוי ממשי בנפח או איכות ההמרות.
- כשמודעות ממותגות מקבלות קרדיט גבוה מדי.
- כשמערכות פנימיות (כמו Salesforce, Hubspot או PowerBI) לא תואמות את תוצאות Google Ads.
- כשקמפיינים חדשים מציגים תוצאות "מדהימות מדי" תוך ימים – לעיתים קרובות סימן לשיוך שגוי.
האם אפשר "לפרוץ" את הקופסה השחורה?
לא ממש — אבל אפשר להתחיל להבין אותה:
- השתמש בדוחות מודל השוואתי (Model Comparison Reports) ב־GA4.
- הרץ ניסויי תקציב עם geo split – תן לאזורים מסוימים קמפיין מסוים בלבד ובדוק השפעה.
- בדוק את Assisted Conversions במערכות מרובות – לא רק Google Ads.
- מדוד KPI עסקיים כמו CLTV, CAC, ולא רק ROAS.
מסקנה אסטרטגית
Google אינה שותפה מלאה – היא פלטפורמה.
ה־Data-Driven Attribution שלה הוא כלי עוצמתי, אבל רק חלק מהתמונה.
כדי להבין באמת מה עובד, עליך להצליב בין מקורות, לבנות קבוצות בקרה, ולפתח מודל מדידה פנימי שמתאים למבנה העסק שלך.