מתקפות קול מזויפות מבוססות בינה מלאכותית

מומחים קובעים כי ניתן לזהות עלייה משמעותית בכמות ובאיכות של מתקפות קול מזוייפות מבוססות AI (בינה מלאכותית), קרי, Deepfake Voice Attacks. שכפול (יצירת) קול אנושי יכול להיעשות כיום די בקלות ולעיתים רבות גם בחינם וללא ידע טכני.

הטכנולוגייה הקיימת מאפשרת יצירת קול על סמך דגימת אודיו הנמשכת 3 שניות בלבד. בדוק ! עם מי אתה מדבר בטלפון, ב- Zoom ועוד. עקרונית מדובר במתקפה מתקדמת של הנדסה חברתית ולכן השלב הראשון (כרגיל) בהגנה הוא המודעות לנושא, חוץ מממודעות וחשדנות (וכל הכרוך בכך) אין בשלב זה יותר מידי כלים ממשיים.

  •  מידע נוסף זמין במקור הידיעה. (המקור- Bleeping Computer)