Argmax - Recommendation system experts

Our team specialize in developing large scale recommendation engines, for advertisers, retailers and content creators. We help you optimize your offer with a large variety of experimentation and custom matching algorithms to drive traffic and increase revenue.

We recoded 73 podcast episodes !

ExplAInable, Israel's most popular machine learning podcast

עולם ללא עוגיות - פרק הפוך עם דין פלבן

פרק משותף עם דין פלבן מ <a href='https://www.youtube.com/playlist?list=PLC4-OBA5bH3i35-xxNHefhNxmanCvWqxB'>The MLOps Podcast</a> על הנושא שמעסיק את עולם הפרסום היום. ברוח חקיקה אירופאית ואמריקאית, נהיה קשה יותר ויותר מבחינה חוקית לעקוב אחרי התנהגות משתמשים עם קוקיז (עוגיות).<br><a href="https://explainable.podbean.com/e/%d7%a2%d7%95%d7%9c%d7%9d%d7%9c%d7%9c%d7%90-%d7%a2%d7%95%d7%92%d7%99%d7%95%d7%aa%d7%a4%d7%a8%d7%a7-%d7%94%d7%a4%d7%95%d7%9a-%d7%a2%d7%9d/" class="btn">להאזנה</a>

למידה מולטי מודאלית עם ד״ר חן חג׳ג׳

מודלים מולטי-מודאלים הגיעו לקידמת הבמה לאחרונה עם מודלים כמו chatGPT, Whisper, Midjourney. נדבר על האתגרים בשילוש מודלים חזותיים, טקסטואלים וגרפיים - כאשר המימדים שונים, המימדים שונים, ואיך מרוויחים מהשילוב הזה. נדבר על cross modal learning - איך אפשר ללמד מודל אחד על סמך מודאליות של מודל אחר.  <br><a href="https://explainable.podbean.com/e/%d7%9c%d7%9e%d7%99%d7%93%d7%94%d7%9e%d7%95%d7%9c%d7%98%d7%99-%d7%9e%d7%95%d7%93%d7%90%d7%9c%d7%99%d7%aa%d7%a2%d7%9d-%d7%93%d7%b4%d7%a8-%d7%97%d7%9f/" class="btn">להאזנה</a>

ניהול פרויקטי דאטא סיינס עם חן קרני

ניהול אנשים זה אתגר, ניהול מחקר עם תוצר לא-וודאי - זה אתגר, וניהול ממשקים עם פרודקט,תוכנה והנהלה בכירה זה בכלל מורכב. בפרק זה אירחנו את חן קרני, מנהלת מנוסה בתחום הדאטא לדבר על איך עושים את זה נכון, וללמד מה עבד עבורה. איך לפרק פרויקטים גדולים למשימות קטנות (בשיטת הסלאמי) שאפשר לתקשר, איך למדוד ולהגדיר יעדים (שגם אפשר לעמוד בהם), ומה הם השלבים בפרויקט חדש.<br><a href="https://explainable.podbean.com/e/%d7%a0%d7%99%d7%94%d7%95%d7%9c%d7%a6%d7%95%d7%95%d7%aa%d7%99-%d7%93%d7%90%d7%98%d7%90-%d7%a1%d7%99%d7%99%d7%a0%d7%a1-%d7%a2%d7%9d%d7%97%d7%9f-%d7%a7/" class="btn">להאזנה</a>

טרנספורמרים בעיבוד תמונה Visual Transformers

  טרנספורמרים הם ללא ספק המודל המועדף בעיבוד שפה - אבל האם גם בתמונות? אז... מסתבר שהתמונה לא כל כך ברורה בעיבוד תמונה. בפרק זה נדבר על היתרונות הגדולים של טרנספורמרים בתמונות - ועל הסיטואציות שבהן CNN מנצחות אותם.<br><a href="https://explainable.podbean.com/e/%d7%98%d7%a8%d7%a0%d7%a1%d7%a4%d7%95%d7%a8%d7%9e%d7%a8%d7%99%d7%9d-%d7%91%d7%a2%d7%99%d7%91%d7%95%d7%93-%d7%aa%d7%9e%d7%95%d7%a0%d7%94visual-transfor/" class="btn">להאזנה</a>

על אינטלגנציה מלאכותית בעולם המשפט - עם עומר חיון

לפני כשש שנים עומר חיון ואורי גורן התחילו הרפתקאה בעולם הLegal tech והקימו את BestPractix בסט פרקטיקס התמקדה בשלב הטיוטות של החוזים, והיוותה כלי עזר לעורכי דין לזהות ״אנומליות״ בחוזים (שבדרך כלל די סטנדרטים), והצעה של אלטרנטיבות מקובלות יותר. בשנת 2020 בסט פרקטיקס נמכרה לLitera Systems האמריקאית, ועומר הועבר להמשך הפיתוח.  <br><a href="https://explainable.podbean.com/e/%d7%a2%d7%9c-%d7%90%d7%99%d7%a0%d7%98%d7%9c%d7%92%d7%a0%d7%a6%d7%99%d7%94-%d7%9e%d7%9c%d7%90%d7%9b%d7%95%d7%aa%d7%99%d7%aa-%d7%91%d7%a2/" class="btn">להאזנה</a>

AI Junk - איך עושים למידת מכונה עם קרטון ביצים

דיברנו הפעם על פרויקט <a href='https://ai-junk.com/'>ai-junk</a> המאפשר לכל אחד ליצור רובוטים מגרוטאות וליצור ולאמן מודלי reinforcement learning שישלטו ברובוטים. ובכך ליצור עולם משחק מרובה רובוטים על הריצפה בסלון. דיברנו על מה זה RL, על הקשיים להפוך RL שעובד טוב בוירטואלי לעולם הפיסי, על כמה נחמד ללמוד על התחום דרך רובוטים :) הפרק הוקלט לפני המלחמה ששיבשה לנו הכל וארועים שתוכננו בוטלו. אם מעניין אתכם להצטרף לסדנה או האקטון הרשמו <a href='https://docs.google.com/forms/d/e/1FAIpQLSdo2Y9z-kNg6LTwWXzJcm5EP_DeDyd8oWCmsxICxYpacZ4Ohw/viewform'>כאן</a> ונעדכן אתכם.<br><a href="https://explainable.podbean.com/e/ai-junk%d7%90%d7%99%d7%9a-%d7%a2%d7%95%d7%a9%d7%99%d7%9d%d7%9c%d7%9e%d7%99%d7%93%d7%aa%d7%9e%d7%9b%d7%95%d7%a0%d7%94-%d7%a2%d7%9d/" class="btn">להאזנה</a>

מה עושים כשיש מעט נתונים - עם נתנאל דוידוביץ

<p style="text-align: right;">נתנאל, דאטא סיינטינסט ותיק שמוביל היום את המחקר בדאבל וריפיי ידבר איתנו על בעיה כואבת אך נפוצה.</p> <p style="text-align: right;">גייסנו תקציבים, כוח אדם, ועם הרבה רצון ומוטיבציה ניגשנו לפרויקט חדש - פתחנו את מכסה המנוע, וגילינו לצערינו שאין מספיק נתונים- מה הלאה ?</p> <p style="text-align: right;">נדבר על שלוש טקטיקות שאפשר לנקוט, בין אם זה תיוג עצמאי ורכישת דאטא, שימוש במודלים כגון</p> <p style="text-align: right;">Label spreading, transfer learning, kde</p><br><a href="https://explainable.podbean.com/e/%d7%9e%d7%94-%d7%a2%d7%95%d7%a9%d7%99%d7%9d-%d7%9b%d7%a9%d7%99%d7%a9-%d7%9e%d7%a2%d7%98-%d7%a0%d7%aa%d7%95%d7%a0%d7%99%d7%9d%d7%a2%d7%9d/" class="btn">להאזנה</a>

מודלי שפה ופלט רצוי

<p style="text-align: right;">יצא לנו הרבה לדבר על מודלי שפה גדולים לאחרונה, ועל השימושים שלהם.</p> <p style="text-align: right;">למעט שימוש בצ׳אטבוט או כעזר לכתיבה, לרוב אנחנו רוצים לקבל את הפלט של המודל בפורמט כלשהו כמו</p> <p style="text-align: right;">Json / Data Class</p> <p style="text-align: right;">נדבר על שלושת השלבים ביצירת הפלט, הטוקנייזר, הטרנספורמר, והמפענח.</p><br><a href="https://explainable.podbean.com/e/%d7%9e%d7%95%d7%93%d7%9c%d7%99-%d7%a9%d7%a4%d7%94-%d7%95%d7%a4%d7%9c%d7%98-%d7%a8%d7%a6%d7%95%d7%99/" class="btn">להאזנה</a>

על מודלי שפה גדולים בפרודקשן עם איתי ציטבר

בפרק זה אירחנו את איתי ציטבר רש"צ מהיירו - לדבר על מודלי שפה בפרודקשן. המודלי צ'אט כ"כ חזקים - האם בכלל נשאר מה לעשות חוץ מאשר לחבר את הAPI לאתר ? מצד שני, זה נראה כאילו כולם משתמשים בLLM, גם כאשר קיימים מודלים פשוטים יותר. נדבר על מה קורה כשהמלצת המודל מתנגשת עם נהלים רפואיים, מה קורה שהמודל נותן הנחיות שגויות למטופל, ואין אפשר לצמצם את התופעה עם Retrieval augmented generation.<br><a href="https://explainable.podbean.com/e/%d7%a2%d7%9c-%d7%9e%d7%95%d7%93%d7%9c%d7%99-%d7%a9%d7%a4%d7%94-%d7%92%d7%93%d7%95%d7%9c%d7%99%d7%9d%d7%91%d7%a4%d7%a8%d7%95%d7%93/" class="btn">להאזנה</a>

איך נולדים נתונים מתויגים עם דניאל מנוחין

בפרק זה אירחנו את דניאל מנוחין, מנהלת קהילת data-ops המובילה את התיוג וטקסונומיה ב ebay בסופו של דבר, מודלים טובים ככל שיהיו - חסומים על ידי איכות הדאטא עליהם הם אומנו. דניאל תספר על החוויות שלה בebay, על נקודות כשל קלאסיות בתהליך התיוג ועל איך בונים פרוטוקול אנוטציה אחיד. נדון בהבדל בין מתייגים in-house שהם ממש חלק מהארגון, לעומת מתייגים חיצוניים (כדוגמת mechnical turk) ועל ההשפעה על איכות התיוגים ותהליכי הפיקוח.<br><a href="https://explainable.podbean.com/e/%d7%90%d7%99%d7%9a-%d7%a0%d7%95%d7%9c%d7%93%d7%99%d7%9d%d7%a0%d7%aa%d7%95%d7%a0%d7%99%d7%9d-%d7%9e%d7%aa%d7%95%d7%99%d7%92%d7%99%d7%9d/" class="btn">להאזנה</a>

על GLM ו AGLM עם לובה אורלובסקי

זה מרגיש כאילו עולם הלמידה מחולק ל2 מחנות, הסטטיסטיקאים ואנשי מדעי המחשב. ולאחרונה יצא מודל AGLM שהוא רעידת אדמה בעולם האקטואריה (ביטוח, פיננסים), וכנראה שרובנו לא שמענו עליו. בפרק זה נסקור מה אלו מודלי GLM, ספוילר - אחד מהם - הרגרסיה הלוגיסטית, אתם מכירים היטב. נדבר על השימושים שלהם, היתרונות שלהם בתחום הפיננסים בעקבות יכולת ההסבר שלהם, ונדבר גם על המגבלות שלהם.<br><a href="https://explainable.podbean.com/e/%d7%a2%d7%9c-glm-%d7%95-aglm-%d7%a2%d7%9d-%d7%9c%d7%95%d7%91%d7%94-%d7%90%d7%95%d7%a8%d7%9c%d7%95%d7%91%d7%a1%d7%a7%d7%99/" class="btn">להאזנה</a>

עם שוקי ויואל על מאחורי הקלעים של One Shot Learning

מי לא מכיר את שוקי ויואל - הגאונים מאחורי ערוץ היוטיוב האדיר שמביא את תרבות הלייב קודינג בעולמות למידת המכונה לארץ הקודש. וואן שוט לרנינג התחיל לפני כשנתיים כרעיון, ומאז הפך לקאלט של ממש. אבל מאחורי כל סרטון של חצי שעה, מסתתרת עבודה רבה, מחקר, באגים, והמון נסיונות שהלכו לפח. בפרק זה אורי ראיין את שוקי ויואל על מאחורי הקלעים של ההפקה, ושואל שאלות קשות. איך הכל התחיל ולמה? איזה פרק הכי אהבתם? איזה פדיחה קרתה בצילומים? ומה התוכניות להמשך ?<br><a href="https://explainable.podbean.com/e/%d7%a2%d7%9d-%d7%a9%d7%95%d7%a7%d7%99-%d7%95%d7%99%d7%95%d7%90%d7%9c-%d7%a2%d7%9c-%d7%9e%d7%90%d7%97%d7%95%d7%a8%d7%99-%d7%94/" class="btn">להאזנה</a>

תורת המשחקים עם מורן קורן

<p>בפרק זה אירחנו את מורן קורן, חוקר ומרצה לתורת המשחקים מאוניברסיטת בן גוריון. דיברנו בעבר שימוש ב<a href='https://amlekai-ml-ai-podcast.castos.com/episodes/episode-06-xai'>ערכי שייפלי</a> לפרשנות מודלים, ערכי שייפלי הם נושא מחקר פעיל בתורת המשחקים והחלטנו להעמיק ולשפוך אור על תורת המשחקים ואיך הרעיונות משלימים את הנחקר בלמידת מכונה.</p> <p>דיברנו על המונחים, מהו שיווי משקל ? איך מגדירים משחקים לפי ידיעה שלמה או גורל, על אסטרטגיה אופטימלית, ואיפה תורת המשחקים פוגשת אותנו כאנשי דאטא.</p><br><a href="https://explainable.podbean.com/e/%d7%aa%d7%95%d7%a8%d7%aa-%d7%94%d7%9e%d7%a9%d7%97%d7%a7%d7%99%d7%9d-%d7%a2%d7%9d-%d7%9e%d7%95%d7%a8%d7%9f-%d7%a7%d7%95%d7%a8%d7%9f/" class="btn">להאזנה</a>

על מערכות חיפוש - סיכום ביקור בכנס הייסטאק 2023 עם אמיר לבנטל

<p style="text-align:right;">אמיר ואורי נסעו במסגרת עבודתם ב<a href='https://www.argmaxml.com'>ארגמקס</a> לכנס הייסטאק HayStack2023</p> <p style="text-align:right;">המתמקד בחיפוש, ואימלקו לכם את הפרק לעשרים דקות צפופות על החידושים בתחום החיפוש בעידן ה</p> <p style="text-align:right;">Language models</p><br><a href="https://explainable.podbean.com/e/%d7%a2%d7%9c-%d7%9e%d7%a2%d7%a8%d7%9b%d7%95%d7%aa%d7%97%d7%99%d7%a4%d7%95%d7%a9%d7%a1%d7%99%d7%9b%d7%95%d7%9d-%d7%91%d7%99%d7%a7%d7%95%d7%a8/" class="btn">להאזנה</a>

מעבר לדאטא אנליסט לדאטא סיינס - בחסות YDATA

<p style="text-align:right;">בפרק זה אירחנו את רותם דמבו ועומר דודי, שסיפרו לנו על המעבר שעשו בשנה האחרונה, מתפקיד של אנליסט לתפקיד של מדען נתונים. דיברנו על הפערים "התרבותיים" בין המקצועות, אילו יתרונות יש לאנליסט שמחפש להכנס לתחום מדעי הנתונים, אילו השלמות כדאי לעשות ואיזה טיפים יש להם לתת למי שנכנס לתחום. הם יספרו על ההחלטה לעשות את המעבר, על הלימודים בתוכנית Y-DATA, על איך התוכנית סייעה להם במעבר ועל מה הם עושים כיום.</p> <br><a href="https://explainable.podbean.com/e/%d7%9e%d7%a2%d7%91%d7%a8%d7%9c%d7%93%d7%90%d7%98%d7%90%d7%90%d7%a0%d7%9c%d7%99%d7%a1%d7%98-%d7%9c%d7%93%d7%90%d7%98%d7%90-%d7%a1/" class="btn">להאזנה</a>

על למידה חיזוקית באימון מודלי שפה RLHF עם מייק

<p style="text-align:right;">קשה לעבור ברחוב היום בלי לשמוע מישהו מספר לחברו על צ'אט ג'י פי טי או LLM</p> <p style="text-align:right;">אחד החידושים באימון שלו, למעשה ב InstructGPT<br><a href="https://explainable.podbean.com/e/%d7%a2%d7%9c-%d7%9c%d7%9e%d7%99%d7%93%d7%94-%d7%97%d7%99%d7%96%d7%95%d7%a7%d7%99%d7%aa-%d7%91%d7%90%d7%99%d7%9e%d7%95%d7%9f-%d7%9e/" class="btn">להאזנה</a>

סיבתיות עם אוהד לוינקרון פיש

<p style="text-align:right;">בפרק זה נדבר עם אוהד מדילטייל, העוסק בניתוח סיבתיות.</p> <p style="text-align:right;">אנחנו כולנו למדנו בטירונות דאטא סיינס ש</p> <p style="text-align:right;">Correlation does not imply causation</p> <p style="text-align:right;">אבל מה כן ? האם חייבים לבצע ניסויים מדוקדקים? והאם זה רלוונטי רק לעולם הרפואה או לכולנו ?</p><br><a href="https://explainable.podbean.com/e/%d7%a1%d7%99%d7%91%d7%aa%d7%99%d7%95%d7%aa-%d7%a2%d7%9d-%d7%90%d7%95%d7%94%d7%93-%d7%9c%d7%95%d7%99%d7%a0%d7%a7%d7%a8%d7%95%d7%9f-%d7%a4%d7%99%d7%a9/" class="btn">להאזנה</a>

חיפוש וקטורי מקורב

<p style="text-align:right;">וקטורים, וקטורים בכל מקום ! דיברנו על מילים שהופכות לוקטורים, מסמכים שהופכים לוקטורים, תמונות שהופכות לוקטורים.</p> <p style="text-align:right;">אבל ברוב המקרים, נדרש חיפוש של וקטורים דומים למשימות של קלאסיפיקציה, דירוג ואפילו זיהוי אנומליות.</p> <p style="text-align:right;">חיפוש וקטורי בקנה מידה גדול זו בעיה הנדסית לא פשוטה, עם אילוצי זמן ריצה וזכרון.</p> <p style="text-align:right;">בפרק קצרצר זה, נסקור שלושה אלגוריתמים לחיפוש מקורב ונדבר על סוגי הוקטורים המתאימים.</p><br><a href="https://explainable.podbean.com/e/%d7%97%d7%99%d7%a4%d7%95%d7%a9-%d7%95%d7%a7%d7%98%d7%95%d7%a8%d7%99-%d7%9e%d7%a7%d7%95%d7%a8%d7%91/" class="btn">להאזנה</a>

על התאוריה של Replay Buffer עם שירלי די קסטרו שעשוע

<p style="text-align:right;">פרק נוסף בתחום הלמידה החיזוקית, הפעם צוללים לפרטים הטכניים עם התאוריה מאחורי Replay Buffer סוכן, יכול ללמוד רק מהפעולות שלו - מה שנקרא</p> <p style="text-align:right;">On Policy<br><a href="https://explainable.podbean.com/e/%d7%a2%d7%9c-%d7%94%d7%aa%d7%90%d7%95%d7%a8%d7%99%d7%94%d7%a9%d7%9c-replaybuffer-%d7%a2%d7%9d%d7%a9%d7%99%d7%a8%d7%9c%d7%99-%d7%93%d7%99/" class="btn">להאזנה</a>

העבודה הראשונה בדאטא שלי

<p style="text-align:right;">פרק זה הוא חסות מיוחד בשיתוף אנבידיה, שמוקדש לג'וניורים.</p> <p style="text-align:right;">אנבידיה הפיקה את כנס ה GTC עם דגש מיוחד השנה של גנרטיב - <a href='https://nvda.ws/3jLtogA'>להרשמה לחצו פה</a></p><br><a href="https://explainable.podbean.com/e/%d7%94%d7%a2%d7%91%d7%95%d7%93%d7%94-%d7%94%d7%a8%d7%90%d7%a9%d7%95%d7%a0%d7%94-%d7%91%d7%93%d7%90%d7%98%d7%90-%d7%a9%d7%9c%d7%99/" class="btn">להאזנה</a>

על קורסטים עם איתן נצר

<p style="text-align:right;">בפרק זה אירחנו את איתן נצר, מ</p> <p style="text-align:right;">data heroes</p> <p style="text-align:right;">לדבר על בחירה חכמה של דגימות לצורך אימון מודלים.</p> <p style="text-align:right;">אנחנו בעידן הדאטא, נאספים טרות של אירועים מדי יום - אבל המודל שלנו לאו דווקא מרוויח מכל השפע הזה.<br><a href="https://explainable.podbean.com/e/%d7%a2%d7%9c-%d7%a7%d7%95%d7%a8%d7%a1%d7%98%d7%99%d7%9d-%d7%a2%d7%9d-%d7%90%d7%99%d7%aa%d7%9f-%d7%a0%d7%a6%d7%a8/" class="btn">להאזנה</a>

אתגר הלווינות של מפא”ת

<p dir="rtl">בפרק זה נציג את אתגר הלווינות החדש בסדרת MAFAT Challenge.</p> <p dir="rtl">אירחנו את ליאל ממפא"ת ואת שי ועידן מ-Webiks.</p> <p dir="rtl">דיברנו על מהפכת החלל, האתגר בזיהוי אובייקטים מתצלומי לוויין במאפיינים שונים וההבדלים ביחס לגילוי אובייקטים קלאסיים.</p> <p dir="rtl"> </p><br><a href="https://explainable.podbean.com/e/%d7%90%d7%aa%d7%92%d7%a8-%d7%94%d7%9c%d7%95%d7%95%d7%99%d7%a0%d7%95%d7%aa-%d7%a9%d7%9c-%d7%9e%d7%a4%d7%90-%d7%aa/" class="btn">להאזנה</a>

זיהוי הונאות על ידי אנומליות עם אנדרס מRiskified

<p style="text-align:right;">זיהוי אנומליות הוא נושא שימושי למגוון בעיות, זיהוי סנסורים דפוקים, אאוטליירים בדאטא או התנהגות חשודה.</p> <p style="text-align:right;">הבעיה היא שזיהוי אנמליות בפני עצמו הא לא תמיד שימושי, אם אין פעולה שאפשר לבצע בעקבות החריגה.</p> <p style="text-align:right;">נדבר על הגישות הקלאסיות לאנומלי, כגון</p> <p style="text-align:right;">* Density estimation</p><br><a href="https://explainable.podbean.com/e/%d7%96%d7%99%d7%94%d7%95%d7%99%d7%94%d7%95%d7%a0%d7%90%d7%95%d7%aa-%d7%a2%d7%9c%d7%99%d7%93%d7%99%d7%90%d7%a0%d7%95%d7%9e%d7%9c/" class="btn">להאזנה</a>

איך לא להעסיק ג’וניורים במקצועות הדאטא

<p style="text-align:right;">פרק זה הוא פרק סולו של אורי, בוא הוא יספר על החוויה שלו בפתיחת משרת ג'וניור בארגמקס.</p> <p style="text-align:right;">המשרה זכתה לחשיפה גבוהה ברשתות החברתיות והגיעה ל40 אלף איש בעקבות שיטת הגיוס הלא שגרתית.</p> <p style="text-align:right;">אורי יספר על מבחן הבית, ההיענות המפתיעה של מועמדים והביקורות שקיבל מקולגות לתחום.</p> <p style="text-align:right;">באם יש לכם נסיון או מומחיות בתחום גיוס הג'וניורים, נשמח לפידבק בקבוצת הטלגרם שלנו</p><br><a href="https://explainable.podbean.com/e/%d7%90%d7%99%d7%9a-%d7%9c%d7%90-%d7%9c%d7%94%d7%a2%d7%a1%d7%99%d7%a7-%d7%92%d7%95%d7%a0%d7%99%d7%95%d7%a8%d7%99%d7%9d-%d7%91/" class="btn">להאזנה</a>

רשתות נוירונים על גרפים עם חגי מרון

<p style="text-align:right;">בפרק זה אירחנו את חי מרון מ</p> <p style="text-align:right;">nvidia</p> <p style="text-align:right;">לדבר על עיבוד גרפים עם רשתות נוירונים.</p> <p style="text-align:right;">נדבר על ישומים של גרפים בחיים האמיתיים, ועל ההבדל האינהרנטי שבין גרף לבין "תמונה" או מטריצה כללית.</p><br><a href="https://explainable.podbean.com/e/%d7%a8%d7%a9%d7%aa%d7%95%d7%aa%d7%a0%d7%95%d7%99%d7%a8%d7%95%d7%a0%d7%99%d7%9d%d7%a2%d7%9c-%d7%92%d7%a8%d7%a4%d7%99%d7%9d-%d7%a2/" class="btn">להאזנה</a>

יצירה אוטומטית של קוד עם פרופ ערן יהב וד”ר אורי אלון

<p style="text-align:right;">בפרק קודם דיברנו על קודקס, מודל השפה שמאחורי</p> <p style="text-align:right;">Github Co-Pilot</p> <p style="text-align:right;">בפרק זה, החלטנו להעמיק ולראיין את ערן יהב, חוקר באקדמיה והמוח מאחורי </p> <p style="text-align:right;">TabNine</p><br><a href="https://explainable.podbean.com/e/%d7%99%d7%a6%d7%99%d7%a8%d7%94%d7%90%d7%95%d7%98%d7%95%d7%9e%d7%98%d7%99%d7%aa%d7%a9%d7%9c-%d7%a7%d7%95%d7%93-%d7%a2%d7%9d%d7%a4%d7%a8%d7%95%d7%a4/" class="btn">להאזנה</a>

Data Centric AI עם סיגל שקד

<p style="text-align:right;">נראה שעולם המודלים הגיעה לבשלות, לא פעם יוצא לנסות כמה מודלים שונים ולהגיע לאותן מטריקות.</p> <p style="text-align:right;">הטרנד של</p> <p style="text-align:right;">data centric ai</p> <p style="text-align:right;">שמוביל <br><a href="https://explainable.podbean.com/e/data-centric-ai-%d7%a2%d7%9d-%d7%a1%d7%99%d7%92%d7%9c-%d7%a9%d7%a7%d7%93/" class="btn">להאזנה</a>

על חינוך בתחום הבינה המלאכותית עם שי פרח

<p style="text-align:right;">בפרק זה אירחנו את שי פרח ממכון וייצמן, מומחה להוראת המדעים.</p> <p style="text-align:right;">בעידן שלנו, ללמוד לתכנת זה כישור יסוד כמו קריאה וכתיבה בעידן המחשב.</p> <p style="text-align:right;">האם הגיע המקום לחשיבה בשיטת</p> <p style="text-align:right;">ai4all</p><br><a href="https://explainable.podbean.com/e/%d7%a2%d7%9c-%d7%97%d7%99%d7%a0%d7%95%d7%9a-%d7%91%d7%aa%d7%97%d7%95%d7%9d%d7%94%d7%91%d7%99%d7%a0%d7%94%d7%94%d7%9e%d7%9c%d7%90/" class="btn">להאזנה</a>

זרימות מנורמלות עם מייק ארליכסון

<p style="text-align:right;">מייק, אורח קבוע של הפודקאסט ידבר איתנו על</p> <p style="text-align:right;">Normalized Flows</p> <p style="text-align:right;">מודל חדש ליצירת תמונה מטקסט, או תמונה מתמונה בדומה ל</p> <p style="text-align:right;">Diffusion model, GANS and VAE</p><br><a href="https://explainable.podbean.com/e/%d7%96%d7%a8%d7%99%d7%9e%d7%95%d7%aa-%d7%9e%d7%a0%d7%95%d7%a8%d7%9e%d7%9c%d7%95%d7%aa%d7%a2%d7%9d-%d7%9e%d7%99%d7%99%d7%a7-%d7%90/" class="btn">להאזנה</a>

אנומליות בתמונות עם ערן אילת

<p style="text-align:right;">בפרק זה אירחנו את ערן אילת האנומליה, לדבר על חיזוי אנומליות בתמונות..</p> <p style="text-align:right;">חיזוי של חריגות הוא קריטי לתחומים רבים כמו סייבר, הונאה פיננסית ובקרה על מודלים.</p> <p style="text-align:right;">בעולמות התמונה, נדבר על שלושת הסוגים של חריגות, חריגה מההתפלגות</p> <p style="text-align:right;">OOD</p><br><a href="https://explainable.podbean.com/e/%d7%90%d7%a0%d7%95%d7%9e%d7%9c%d7%99%d7%95%d7%aa-%d7%91%d7%aa%d7%9e%d7%95%d7%a0%d7%95%d7%aa-%d7%a2%d7%9d-%d7%a2%d7%a8%d7%9f-%d7%90%d7%99%d7%9c%d7%aa/" class="btn">להאזנה</a>

איך פרילנסר ניגש לפרויקט AI

<p style="text-align:right;">תמיר ואורי, שניהם עוסקים כיועצים בתחום למידת המכונה - ועשו הרבה טעויות שניתן ללמוד מהם כשניגשים לפרויקט חדש.</p> <p style="text-align:right;">בפרק זה, נדבר על שלושה פרויקטים לדוגמא - ומה הן השאלות והסוגיות שצריך להעלות לפני שמתחילים.</p> <p style="text-align:right;">נדבר על מטריקות - איך מודדים פרויקט, על אתגרים טכניים.</p> <p style="text-align:right;">איך בוחנים האם הדאטא מספק, והאם הארגון בכלל בשל ל</p><br><a href="https://explainable.podbean.com/e/%d7%90%d7%99%d7%9a-%d7%a4%d7%a8%d7%99%d7%9c%d7%a0%d7%a1%d7%a8-%d7%a0%d7%99%d7%92%d7%a9-%d7%9c%d7%a4%d7%a8%d7%95%d7%99%d7%a7%d7%98-ai/" class="btn">להאזנה</a>

Co-Pilot - Codex ויצירה של קוד עם מודלי שפה

<p style="text-align:right;">הקופיילוט של גיטהאב הכניס למודעות תחום מחקר מרתק של</p> <p style="text-align:right;">Program Synthesis</p> <p style="text-align:right;">העוסק ביצירה של קוד מתוך טקסט או מתוך דוגמאות הרצה.</p> <p style="text-align:right;">אורי, כמשתמש נלהב של טייס המשנה יספר מהחוויות שלו על השימוש - החוזקות והחולשות של הכלי.</p><br><a href="https://explainable.podbean.com/e/co-pilot-codex-%d7%95%d7%99%d7%a6%d7%99%d7%a8%d7%94-%d7%a9%d7%9c-%d7%a7%d7%95%d7%93-%d7%a2%d7%9d-%d7%9e%d7%95%d7%93%d7%9c%d7%99-%d7%a9%d7%a4%d7%94/" class="btn">להאזנה</a>

שישה מאמרים שכל דאטא סיינטינסט חייב להכיר עם שקד זיכלינסקי

<p style="text-align:right;">בפרק זה אירחנו את שקד זיכלינסקי, ראש קבוצת ההמלצות של לייטריקס.</p> <p style="text-align:right;">שקד ריכז עבורנו את ששת המאמרים החשובים שכל דאטא סיינטיסט מודרני חייב להכיר.</p> <p style="text-align:right;">ששת המאמרים הם:</p> (1) Attention Is All You Need<br><a href="https://explainable.podbean.com/e/%d7%a9%d7%99%d7%a9%d7%94%d7%9e%d7%90%d7%9e%d7%a8%d7%99%d7%9d-%d7%a9%d7%9b%d7%9c%d7%93%d7%90%d7%98%d7%90%d7%a1%d7%99%d7%99%d7%a0/" class="btn">להאזנה</a>

Novel Class Discovery זיו פרוינד על

<p style="text-align:right;">בפרק זה אירחנו את זיו פרוינד שהכיר לנו מונח חדש לבעיה נפוצה.</p> <p style="text-align:right;">מכירים את זה שאימנתם מודל שעובד מעולה כשמסווגים 10 מחלקות, אבל פתאום כשמגיעים לשטח מגלים שיש עוד 12 מחלקות שלא חשבתם עליהם ומבלבלות את המודל ?</p> <p style="text-align:right;">זיו יספר על נסיונו בסיווג סיגנלים באלביט, ויספר על גישות לפתרון הבעיה.</p> <p style="text-align:right;">נשמע לכם כמו קלאסטרינג ? גם לנו - נדבר על ההבדלים ועל שימוש בשיטות כמו</p><br><a href="https://explainable.podbean.com/e/novel-class-discovery-%d7%96%d7%99%d7%95-%d7%a4%d7%a8%d7%95%d7%99%d7%a0%d7%93-%d7%a2%d7%9c/" class="btn">להאזנה</a>

Multi-Task Learning עם איתי מרגולין

<p>בפרק זה נראיין את איתי מרגולין על אחת הטכניקות הפרקטיות בתעשייה שכל עסקן דיפ לרנינג חייב להכיר.</p> <p>מולטי-טאסק זו למידה של מספר משימות במקביל, ולמרות שהמונח קיים כבר עשרות שנים, הוא זכה להכרה מחדש עם פרוץ דיפ לחיינו.</p> <p>נדבר על מתי למידה של מספר משימות מועילה, מתי היא מזיקה ?</p> <p>מה ההבדל מול<br><a href="https://explainable.podbean.com/e/multi-task-learning-%d7%a2%d7%9d-%d7%90%d7%99%d7%aa%d7%99-%d7%9e%d7%a8%d7%92%d7%95%d7%9c%d7%99%d7%9f/" class="btn">להאזנה</a>

מערכות המלצה בטאבולה עם דנה קנר

<p style="text-align:right;">כמשתמשים אנחנו נחפשים למערכות המלצה כל הזמן, בין אם זה בסופר בקניות או בגלילת סרטים בנטפליקס.</p> <p style="text-align:right;">בפרק זה נדבר עם דנה, על איך טאבולה, ענקית ההמלצות העולמית ממליצה לנו על כתבות דומות כשאנחנו גולשים באינטרנט.</p> <p style="text-align:right;">נדבר על המלצות מבוססות תוכן בלבד</p> <p style="text-align:right;">content filtering</p><br><a href="https://explainable.podbean.com/e/%d7%9e%d7%a2%d7%a8%d7%9b%d7%95%d7%aa-%d7%94%d7%9e%d7%9c%d7%a6%d7%94-%d7%91%d7%98%d7%90%d7%91%d7%95%d7%9c%d7%94%d7%a2%d7%9d-%d7%93/" class="btn">להאזנה</a>

זיהוי אובייקטים עם אברהם רביב

<p style="text-align:right;">בפרק זה נדבר על זיהוי אובייקטים בתמונה, ונארח את אברהם רביב - דוקטורנט בתחום בבר אילן ופעיל מאוד בקהילה עם הסקירות המעולות שלו.</p> <p style="text-align:right;">נדבר על בעיות בראיה ממוחשבת, מקלאסיפיקציה, דרך זיהוי אובייקטים ועד סגמנטציה - ועל הקושי בתיוג.</p> <p style="text-align:right;">זיהוי אובייקטים יכול להיות ממודל או כבעיה דו שלבית, הכוללת שלב נקודות עניין ואז קלאסיפיקציה או יחדיו - ונזכיר את</p> <p style="text-align:right;">YOLO</p><br><a href="https://explainable.podbean.com/e/%d7%96%d7%99%d7%94%d7%95%d7%99%d7%90%d7%95%d7%91%d7%99%d7%99%d7%a7%d7%98%d7%99%d7%9d%d7%a2%d7%9d-%d7%90%d7%91%d7%a8%d7%94%d7%9d/" class="btn">להאזנה</a>

Defusion Denoising Models עם מייק ארליכסון

<p>ראיון מיוחד עם מייק ארליכסון האחד והיחיד על מודל גנרטיבי "חדש".</p> <p>Diffusion Models הם שיטה חדש לפעפוע רעש, ואימון מודל להפוך רעש  על ידי סדרה של מודלים לתמונות סופר איכותיות.</p> <p>נדבר על המאמר:</p><br><a href="https://explainable.podbean.com/e/defusion-denoising-models-%d7%a2%d7%9d-%d7%9e%d7%99%d7%99%d7%a7-%d7%90%d7%a8%d7%9c%d7%99%d7%9b%d7%a1%d7%95%d7%9f/" class="btn">להאזנה</a>

MLOps עם אורן רזון

<p>בפרק זה נדבר עם אורן רזון שמוביל את</p> <p>superwise</p> <p>על שלושת השלבים של דיפלוימנט של מודלי למידת מכונה.</p> <p>נדבר על מה יכול להשתבש בפרודקשן כשמודל מתיישן והעולם מתיישן, ואיך ניתן להיות עם יד על הדופק עם<br><a href="https://explainable.podbean.com/e/mlops-%d7%a2%d7%9d-%d7%90%d7%95%d7%a8%d7%9f-%d7%a8%d7%96%d7%95%d7%9f/" class="btn">להאזנה</a>

Machine Learning Engineering עם אסף פנחסי

<p style="text-align:right;">למידת מכונה נורא כיפית ופשוטה כשמורידים מחברת מקאגל וכל הדאטא יושב בקובץ על המחשב ליד, אבל בחיים האמיתיים המצב לא כ"כ פשוט.</p> <p style="text-align:right;">בפרק זה אסף פנחסי (יועץ בתחום, בוגר פייפל ובכיר בזברה מדיקל לש') לספר לנו על החיים האמיתיים.</p> <p style="text-align:right;">שאלנו את אסף את כל השאלות הקשות: מחברות או קוד ? האם</p> <p style="text-align:right;">feature store</p><br><a href="https://explainable.podbean.com/e/machine-learning-engineering-%d7%a2%d7%9d-%d7%90%d7%a1%d7%a3-%d7%a4%d7%a0%d7%97%d7%a1%d7%99/" class="btn">להאזנה</a>

סטטיסטיקה בייסיאנית

<p style="text-align:right;">סטטיסטיקאים נחצים ל2 מחנות: הסטטיסטיקאים הקלאסיים-תדירותיים, והסטטיסטיקאים הבייסיאנים.</p> <p style="text-align:right;">סטטיסטיקה בייסיאנית היא גישה שונה לסטטיסטיקה, שמנסה לדון בסבירות לא רק של הדאטא הנצפה בהנתן השערה, אלא גם בסבירות של הפרמטרים של ההתפלגות.</p> <p style="text-align:right;">מודלים רבים כגון</p> <p style="text-align:right;">GMM, Naive Bayes  ו Latent Dirrechlet allocation</p><br><a href="https://explainable.podbean.com/e/%d7%a1%d7%98%d7%98%d7%99%d7%a1%d7%98%d7%99%d7%a7%d7%94-%d7%91%d7%99%d7%99%d7%a1%d7%99%d7%90%d7%a0%d7%99%d7%aa/" class="btn">להאזנה</a>

ניווט אינרציאלי עם ברק אור

<p style="text-align:right;">בפרק זה אירחנו את ברק אור לספר לנו על ניווט אינרציאלי.</p> <p style="text-align:right;">כשאנחנו חושבים על ניווט, אנחנו חושבים על גוגל מאפס, ווייז ושלל אפליקציות שמשתמשות ב</p> <p style="text-align:right;">GPS.</p> <p style="text-align:right;">אבל לג'י פי אס יש מגבלות, ויש דרכים נוספות לנווט - כגון מדדי תאוצה, מהירות ומצפן.</p><br><a href="https://explainable.podbean.com/e/%d7%a0%d7%99%d7%95%d7%95%d7%98-%d7%90%d7%99%d7%a0%d7%a8%d7%a6%d7%99%d7%90%d7%9c%d7%99-%d7%a2%d7%9d-%d7%91%d7%a8%d7%a7-%d7%90%d7%95%d7%a8/" class="btn">להאזנה</a>

על בינה מלאכותית בסייבר עם רועי טבח

<p>בפרק זה ראיינו את רועי טבח שייספר לנו על האתגרים בעולם הסייבר,</p> <p>דיברנו על שימוש  באנומלי דטקשן להתראה על אירועים חשודים בלוגים של מערכות.</p> <p>ודיברנו על מירוץ החימוש הנצחי בין התוקפים למגינים</p> <br><a href="https://explainable.podbean.com/e/%d7%a2%d7%9c-%d7%91%d7%99%d7%a0%d7%94-%d7%9e%d7%9c%d7%90%d7%9b%d7%95%d7%aa%d7%99%d7%aa-%d7%91%d7%a1%d7%99%d7%99%d7%91%d7%a8-%d7%a2/" class="btn">להאזנה</a>

Proximal Policy Optimization מה זה

<p style="text-align:right;">כבר התרגלנו בעולם המשין לרנינג, ששום מודל לא שורד יותר משנה-שנתיים בתור ה</p> <p style="text-align:right;">SOTA</p> <p style="text-align:right;">עד שמגיעה גישה חדשה שטורפת את הקלפים.</p> <p style="text-align:right;">לכן מעניין דווקא לדבר על</p><br><a href="https://explainable.podbean.com/e/proximal-policy-optimization-%d7%9e%d7%94-%d7%96%d7%94/" class="btn">להאזנה</a>

בנדיטים עם דניאל חן

<p style="text-align:right;">בפרק זה אירחנו את דניאל חן מפייבר, לדבר על אלגוריתמי בנדיטים.</p> <p style="text-align:right;">Multi armed bandit</p> <p style="text-align:right;">היא גרסה מנוונת של</p> <p style="text-align:right;">Reinforcement learning</p><br><a href="https://explainable.podbean.com/e/%d7%91%d7%a0%d7%93%d7%99%d7%98%d7%99%d7%9d-%d7%a2%d7%9d-%d7%93%d7%a0%d7%99%d7%90%d7%9c-%d7%97%d7%9f/" class="btn">להאזנה</a>

Variational Auto Encoders עם מייק ארליכסון

<p>פרק מהארכיון, עם מייק ארליכסון המפורסם מסקירות המאמרים.</p> <p>בפרק זה נדבר על הדרך מאוטו-אנקודר אל</p> <p>VAE</p> <p>לצורך יצירה של דאטא סינטתי.</p><br><a href="https://explainable.podbean.com/e/variational-auto-encoders-%d7%a2%d7%9d-%d7%9e%d7%99%d7%99%d7%a7-%d7%90%d7%a8%d7%9c%d7%99%d7%9b%d7%a1%d7%95%d7%9f/" class="btn">להאזנה</a>

עצי החלטה - חוזרים לבסיס

<p style="text-align:right;">בפרק זה נחזור לבסיס ונדבר על עצי החלטה, המודל הבסיסי והאינטואטיבי ביותר - שעדיין עובד יותר טוב על דאטא טבלאי.</p> <p style="text-align:right;">נדבר על שיטות אימון חמדניות, ועל שימוש באנטרופיה כקירוב.</p> <p style="text-align:right;">ונתאר מה ההבדל בין שיטות ה</p> <p style="text-align:right;">ensemble</p><br><a href="https://explainable.podbean.com/e/%d7%a2%d7%a6%d7%99-%d7%94%d7%97%d7%9c%d7%98%d7%94-%d7%97%d7%95%d7%96%d7%a8%d7%99%d7%9d-%d7%9c%d7%91%d7%a1%d7%99%d7%a1/" class="btn">להאזנה</a>

למידה ניגודית Contrastive Learning

<p>נראה שלמידה ניגודית מקבלת המון תשומת לב לאחרונה, בעיבוד תמונה, טקסט ואפילו דאטא טבלאי.</p> <p>נדבר על המאמר פורץ הדרך של הינטון</p> <p>SimCLR</p> <p>ונשווה אותו אל מול שיטות קלאסיות של הורדת מימד.</p><br><a href="https://explainable.podbean.com/e/%d7%9c%d7%9e%d7%99%d7%93%d7%94-%d7%a0%d7%99%d7%92%d7%95%d7%93%d7%99%d7%aa-contrastive-learning/" class="btn">להאזנה</a>

פדיחות של למידה

<p style="text-align:right;">בהמשך לסיקור החדשותי של זילו, והחיזוי מחירי נדלן שהביאו להפסדים של מיליארדים - תמיר ואורי מתוודאים על פדיחות שעשו בפרויקטים.</p> <p style="text-align:right;">מה קורה כשהמודל מושלם אבל תהליך יצירת הדאטא פחות ? איך פרויקט תיוג יכול להשתבש ולהתפוצץ בפנים, וכמובן - כמה חשוב לקרוא את האותיות הקטנות בדוקמנטציה.</p> <br><a href="https://explainable.podbean.com/e/%d7%a4%d7%93%d7%99%d7%97%d7%95%d7%aa-%d7%a9%d7%9c-%d7%9c%d7%9e%d7%99%d7%93%d7%94/" class="btn">להאזנה</a>

עיבוד קול עם אמיר עברי

<p>בפרק זה אירחנו את אמיר עברי להסביר לנו על עיבוד קול, מה הם השלבים השונים בפייפליין של</p> <p>Speech recognition</p> <p>ועל האתגרים בתחום. בפרק נדבר על שיטות כגון</p> <p>MFCC</p><br><a href="https://explainable.podbean.com/e/speech-with-amir-ivri/" class="btn">להאזנה</a>

על התאוריה של דיפ לרנינג, עם גלעד יהודאי

<p>על מהפכת הדיפ לרנינג לא צריך להרחיב, כולנו מכירים וחלקנו אף מימשנו.</p> <p>אבל למה לעזאזל הדבר הזה עובד ? בפרק זה אירחנו את גלעד יהודאי, סטודנט לדוקטורט לתחום ושאלנו אותו את השאלות הקשות.</p> <p>נלמד מה זה "אוברפיטינג שפיר" מה היא תופעת ה"ירידה הכפולה" ומה הם שלושת סוגי הטעויות בלמידה.</p> <br><a href="https://explainable.podbean.com/e/%d7%a2%d7%9c-%d7%94%d7%aa%d7%90%d7%95%d7%a8%d7%99%d7%94%d7%a9%d7%9c-%d7%93%d7%99%d7%a4-%d7%9c%d7%a8%d7%a0%d7%99%d7%a0%d7%92%d7%a2%d7%9d-%d7%92/" class="btn">להאזנה</a>

עיבוד שפה בעברית, עם פרופסור רעות צרפתי

<p>בפרק זה אורי מארח את רעות צרפתי לדבר על עיבוד שפה בעברית.</p> <p>מה ההבדל בכלל בין עברית לאנגלית ? למה זה יותר קשה ?</p> <p>האם החיים היו יותר קלים אם היינו כותבים עם ניקוד ?</p> <p>ודיברנו על ההבדלים הבלשניים של שפות שמיות (עברית וערבית) אל מול שפות הודו אירופאיות.</p><br><a href="https://explainable.podbean.com/e/hebrew-nlp-with-reut-tsarfaty/" class="btn">להאזנה</a>

Positive Unlabeled Learning שי פלצ‘י על

<p>קיבלתם פעם דאטאסט עם "כל הדברים שחשוב לזהות" אבל בלי אף דוגמא שלילית ?</p> <p>אני בטוח שכן, אפשרות אחת לפתרון היא למדל את הבעיה כקלאסיפיקציה ואיכשהו להמציא דוגמאות שליליות.</p> <p>או, לחילופין למדל את הבעיה כ</p> <p>Positive Unlabeled Learning</p><br><a href="https://explainable.podbean.com/e/positive-unlabeled-learning-with-shay-palachy/" class="btn">להאזנה</a>

Welcome back -not amlek.ai - we‘re ExplAInable

<p>Tamir Nave and Uri Goren introduce themselves and the new podcast format.</p> <br><a href="https://explainable.podbean.com/e/welcome-back-not-amlekai-we-re-explainable/" class="btn">להאזנה</a>

Episode 18: AlgoTrading

<p style="direction: rtl;"><span style="font-weight: 400;"><strong>בפרק זה,</strong> התארחנו ב </span><a href="http://weel.com" target="_blank" rel="noopener"><span style="font-weight: 400;">weel.com</span></a><span style="font-weight: 400;">, ואירחנו את יגאל ויינברגר, שדיבר איתנו על AlgoTrading. שוחחנו על סוגי אלגוטריידינג (Sell side, Buy side, HFT), ועל גישות האלגוריתמים בתחום: כלים סטטיסטיים סטנדרטיים, LSTM, Reinforcement Learning. בנוסף, הצגנו כיצד אפשר להיכנס לתחום, ויגאל אפילו נתן לנו אלגוריתם baseline להתחיל לשחק איתו. האותיות הקטנות של האזהרה: כן לנסות את זה בבית, אבל לא כ"כ מהר על כסף אמיתי!</span></p> <p style="direction: rtl;"><strong>קישורים רלוונטיים:</strong></p> <ul> <ul> <br><a href="https://amlekai-ml-ai-podcast.castos.com/episodes/episode-18-algotrading" class="btn">להאזנה</a>

Episode 17: Models Discrimination

<p style="direction: rtl;"><span style="font-weight: 400;"><strong>בפרק זה,</strong>&nbsp;נארח את אופיר יוקטן - שמתעסק בניבוי התאמה של קורות חיים. אופיר יציג כיצד הוא מתמודד עם מודלים מפלים על רקע מגדרי\גזעני. נעסוק בשיטות להתמודדות עם הבעיה הזו: העלמת או הינדוס פיצ'רים, אימון עם Database מאוזן, ושיטת Gradient reversal layer.</span></p> <p style="direction: rtl;"><span style="font-weight: 400;">קישורים:</span></p> <ul> <li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">&nbsp;"What is Adverse Impact? And Why Measuring It Matters." 26 Mar. 2018, </span><a href="https://www.hirevue.com/blog/hiring/what-is-adverse-impact-and-why-measuring-it-matters" target="_blank" rel="noopener"><span style="font-weight: 400;">https://www.hirevue.com/blog/hiring/what-is-adverse-impact-and-why-measuring-it-matters</span></a><span style="font-weight: 400;">. Accessed 15 Dec. 2020.</span></li> <br><a href="https://amlekai-ml-ai-podcast.castos.com/episodes/episode-17-models-discrimination" class="btn">להאזנה</a>

Episode 16: GAN - Generative Adversarial Networks

<p style="direction: rtl;"><span style="font-weight: 400;"><strong>בפרק זה,</strong>&nbsp;נדבר על מודלים ג'נרטיביים, ובפרט על מהפכת ה-GAN=Generative Adversarial Networks. איך עובד הקסם? תחרות בין מודלים - האחד שמזייף, והשני שמגלה זיופים. וקצת על כל הנגזרות של האלגוריתם, שבאו כפטריות אחרי הגשם.</span></p> <p style="direction: rtl;"><span style="font-weight: 400;">קישורים:</span></p> <ul> <li style="font-weight: 400;" aria-level="1"><a href="https://arxiv.org/abs/1406.2661"><span style="font-weight: 400;">מאמר מקורי GAN</span></a></li> <br><a href="https://amlekai-ml-ai-podcast.castos.com/episodes/episode-16-gan-generative-adversarial-networks" class="btn">להאזנה</a>

Episode 15: Transformers - האבולוציה של ניתוח סדרות בזמן

<p style="direction: rtl;"><span style="font-weight: 400;"><strong>בפרק זה,</strong> נסקור את ההשתלשלות של ניתוח סדרות בזמן החל מ-RNN, דרך Attention Models ועד ל-Transformers.<br /></span><span style="font-weight: 400;">נדבר על Self Attention, Multi Headed Attention, LSTM, RNN, GRU, Transformers ו-DeTR.</span></p> <p style="direction: rtl;"><span style="font-weight: 400;">קישורים רלוונטיים:</span></p> <ul> <li style="font-weight: 400;" aria-level="1"><a href="https://towardsdatascience.com/attention-networks-c735befb5e9f"><span style="font-weight: 400;">Attention Models</span></a></li> <br><a href="https://amlekai-ml-ai-podcast.castos.com/episodes/episode-15-transformers-habvlvih-shl-nitv-sdrvt-bzm" class="btn">להאזנה</a>

Episode 14: Graph Neural Nets - שיכון גרפים

<p style="direction: rtl;"><span style="font-weight: 400;">בפרק זה נארח את אלה בור, שתספר לנו על מהם גרפים (קשתות וצמתים), על בעיות המיוצגות ע"י גרפים ועל שיכון גרפים במרחב אוקלידי (GNN, Node2Vec).<br /></span><strong>קישורים:</strong></p> <ul> <li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">Node2vec - </span><a href="https://arxiv.org/pdf/1607.00653.pdf"><span style="font-weight: 400;">https://arxiv.org/pdf/1607.00653.pdf</span></a><span style="font-weight: 400;">, </span><a href="https://towardsdatascience.com/node2vec-embeddings-for-graph-data-32a866340fef"><span style="font-weight: 400;">https://towardsdatascience.com/node2vec-embeddings-for-graph-data-32a866340fef</span></a></li> <li style="font-weight: 400;" aria-level="1"><span style="font-weight: 400;">GNN - </span><a href="https://arxiv.org/pdf/1812.08434.pdf"><span style="font-weight: 400;">https://arxiv.org/pdf/1812.08434.pdf</span></a></li> <br><a href="https://amlekai-ml-ai-podcast.castos.com/episodes/episode-14-graph-neural-nets-shiv-grfim" class="btn">להאזנה</a>

Episode 13: 3D

<h3 style="direction: rtl; text-align: right;"><strong>בפרק זה אנו נארח את פיטר נפתליאב <a href="https://2d3d.ai/" target="_blank" rel="noopener">הבלוגר </a>ומנהל קהילת <a href="https://www.reddit.com/r/2D3DAI/" target="_blank" rel="noopener">/r/2D3DAI</a> שידבר איתנו על עולם התלת מימד. </strong></h3> <h3 style="direction: rtl; text-align: right;"><strong>נעסוק ביישומים ובסוגי הבעיות בתחום. נסקור ייצוגים של DATA תלת מימדי: Cad, Mesh, Voxel, Points Cloud.</strong></h3> <p style="direction: rtl; text-align: right;">&nbsp;</p> <p style="direction: rtl;"><span style="font-weight: 400;">קישורים רלוונטיים:</span></p> <br><a href="https://amlekai-ml-ai-podcast.castos.com/episodes/episode-13-3d" class="btn">להאזנה</a>

Episode 12: Gaussian process regression/ Kriging

<p style="direction: rtl;"><span style="font-weight: 400;">בפרק זה נדבר על שיטת רגרסיה, שנקראת Kriging או Gaussian process regression - שיטה בייסיאנית שהחלה במטרה לאתר מכרות זהב. נדבר על מושגי מבוא, כמו: משתנה אקראי גאוסי ותהליך אקראי גאוסי, ועל משפט הגאוסיאני המותנה. קישורים רלוונטיים:</span></p> <ul> <li style="font-weight: 400;" aria-level="1"><a href="https://www.math.univ-toulouse.fr/~fbachoc/LRC_Manon_2014.pdf" target="_blank" rel="noopener"><span style="font-weight: 400;">https://www.math.univ-toulouse.fr/~fbachoc/LRC_Manon_2014.pdf</span></a></li> <li style="font-weight: 400;" aria-level="1"><a href="https://www.youtube.com/watch?v=xBE8qdAAj3w" target="_blank" rel="noopener"><span style="font-weight: 400;">Pydata nyc workshop on GPR</span></a></li> <br><a href="https://amlekai-ml-ai-podcast.castos.com/episodes/episode-12-gaussian-process-regression-kriging" class="btn">להאזנה</a>

Episode 11: Curriculum Learning - תכניות אימון למודלים

<p style="direction: rtl;"><span style="font-weight: 400;">בפרק זה נעסוק בתחום ה-Curriculum Learning - מה זה ולמה זה טוב? איך מסדרים בסדר מוצלח יותר את דוגמאות האימון ולפי אילו מדדים? בשיחה, נדבר על המרכיבים המקובלים - scoring ו-pacing, ועל מתודולוגית Teacher-Student.<br /></span></p> <p style="direction: rtl;"><span style="font-weight: 400;">קישורים רלוונטיים:</span></p> <ul> <li style="font-weight: 400;"><a href="https://mila.quebec/wp-content/uploads/2019/08/2009_curriculum_icml.pdf" target="_blank" rel="noopener"><span style="font-weight: 400;">Curriculum learning</span></a></li> <br><a href="https://amlekai-ml-ai-podcast.castos.com/episodes/episode-11-curriculum-learning-tnivt-aimv-lmvdlim" class="btn">להאזנה</a>

Episode 10: Fourier Transform - אינטרו לפורייה

<p style="direction: rtl;"><span style="font-weight: 400;"><strong>בפרק זה,</strong> נשוחח על מהי התמרת פורייה. מוטיבציות, שימושים, Time Series והקשר ללמידה עמוקה.<br />קישורים רלוונטיים:&nbsp;</span></p> <ul> <li><a href="https://www.youtube.com/watch?v=spUNpyF58BY" target="_blank" rel="noopener">But what is the Fourier Transform? A visual introduction</a></li> <li><a href="http://ecmlpkdd2017.ijs.si/papers/paperID11.pdf" target="_blank" rel="noopener">Fourier Convolutional Neural Networks</a></li> <br><a href="https://amlekai-ml-ai-podcast.castos.com/episodes/episode-10-fourier-transform-ainrv-lfvriih" class="btn">להאזנה</a>

Episode 9: Adversarial Training - איך לבלבל מודלים?

<p style="direction: rtl;"><span style="font-weight: 400;"><strong>בפרק זה,</strong>&nbsp;נדבר על Adversarial Attacks, על איך מייצרים Adversarial Examples בשיטת FGSM, על התקפות White or Black box models ונזכיר Certifiable Robustness.</span></p> <ul> <ul> <li style="font-weight: 400;"><a href="https://arxiv.org/pdf/1412.6572.pdf" target="_blank" rel="noopener"><span style="font-weight: 400;">FGSM</span></a></li> <br><a href="https://amlekai-ml-ai-podcast.castos.com/episodes/episode-9-adversarial-training-ai-lblbl-mvdlim" class="btn">להאזנה</a>

Episode 8: הורדת מימדים

<p style="direction: rtl;"><span style="font-weight: 400;"><strong>בפרק זה נדבר על הורדת מימדים - Dimensionality reduction.</strong> נעסוק במוטיבציות (קללת המימדים), ובאלגוריתמים PCA, T-SNE, AutoEncoders, SOM.</span></p> <p style="direction: rtl;"><strong>קישורים רלוונטיים:</strong></p> <ul> <li style="font-weight: 400;"><a href="https://onlinecourses.science.psu.edu/stat505/lesson/11"><span style="font-weight: 400;">https://onlinecourses.science.psu.edu/stat505/lesson/11</span></a></li> <br><a href="https://amlekai-ml-ai-podcast.castos.com/episodes/episode-8-hvrdt-mimdim" class="btn">להאזנה</a>

Episode 7: Clustering from a bird eye view

<p style="direction: rtl;"><span style="font-weight: 400;">בפרק זה נעסוק בבעיה הכי שכיחה בעולם unsupervised, הרי היא בעיית ה-clustering - ניתוח אשכולות. נדבר על משפחות אלגוריתמים (top down - bottom up, soft-hard, metric/ graph/ distribution based), ונעסוק במדדי הצלחה קלאסיים (silhouette, dunn index, DB index, Rand index) ובמדדי הצלחה תלויי בעיה.</span></p> <p style="direction: rtl;"><span style="font-weight: 400;">קישורים רלוונטיים:</span></p> <ul> <li style="font-weight: 400;"><a href="https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=8412085" target="_blank" rel="noopener"><span style="font-weight: 400;">Deep Learning Clustering</span></a></li> <br><a href="https://amlekai-ml-ai-podcast.castos.com/episodes/episode-7-clustering-from-a-bird-eye-view" class="btn">להאזנה</a>

Episode 06: (XAI) פרשנות מודלים

<p style="direction: rtl;"><span style="font-weight: 400;">בפרק זה נעסוק באיך מפרשים מודלים ואיך מבינים את ההחלטות שלהם. תחום רחב זה נקרא Explainable artificial intelligence או Interpretable machine learning. בפרק נעסוק בטכניקות השונות שיש בתחום ובפרט ב ZF-NET, DeepDream, GradCam, Lime, Shap.</span></p> <p style="direction: rtl;"><span style="font-weight: 400;">קישורים רלוונטיים:</span></p> <ul> <li style="font-weight: 400;"><a href="https://christophm.github.io/interpretable-ml-book/"><span style="font-weight: 400;">ספר אונלייני</span></a></li> <br><a href="https://amlekai-ml-ai-podcast.castos.com/episodes/episode-06-xai" class="btn">להאזנה</a>

Episode 05: NLPH (NLP In Hebrew)

<p style="direction: rtl;"><span style="font-weight: 400;">בפרק זה נדבר על עיבוד טקסט בעברית, ונציג כיצד הוא שונה משפות אחרות, ובפרט מאנגלית. נשוחח על ה-NLP Pipeline ועל למה הוא שבור בעברית, ונדבר על התחביר של עברית והתכונות הייחודיות של שפות שמיות.</span></p> <p style="direction: rtl;"><span style="font-weight: 400;"><a href="https://cs.biu.ac.il/staff/118" target="_blank" rel="noopener">רעות צרפתי</a></span></p> <p style="direction: rtl;"><a href="https://cs.biu.ac.il/staff/106" target="_blank" rel="noopener"><span style="font-weight: 400;">יואב גולדברג</span></a></p> <p style="direction: rtl;"><a href="https://github.com/OnlpLab" target="_blank" rel="noopener"><span style="font-weight: 400;">המעבדה לעיבוד שפה טבעית בעברית</span></a></p> <br><a href="https://amlekai-ml-ai-podcast.castos.com/episodes/episode-05-nlph-nlp-in-hebrew" class="btn">להאזנה</a>

Episode 04: All Multi's

<p style="direction: rtl;"><span style="font-weight: 400;">בפרק זה נדבר על כל ה-Multi's וננסה לעשות סדר במושגים שנוטים לבלבל:</span></p> <p style="direction: rtl;"><span style="font-weight: 400;">multi class classification, multi label classification, multi task learning, Multi objective, Multiple modality.</span></p> <p style="direction: rtl;"><span style="font-weight: 400;">נגדיר כל מושג, ניתן דוגמאות ונדון בסוגיות ומימושים סביב כל מושג. קישורים רלוונטיים:</span></p> <ul> <br><a href="https://amlekai-ml-ai-podcast.castos.com/episodes/episode-04-all-multi39s" class="btn">להאזנה</a>

Episode 03: Active Learning

<h5 style="direction: rtl;"><strong>בפרק זה נדבר על מהי Active Learning, כמה זה נפוץ ומתי ניתן לעשות זאת. נדבר על קריטריוני החלטה (Query Strategies):</strong></h5> <p style="direction: rtl;"><span style="font-weight: 400;">&nbsp;Least Confidence ,Margin Sampling ,Entropy Sampling ונזכיר את ההבדלים במתודולוגיות:<br /></span><span style="font-weight: 400;">Membership Query Synthesis, Stream-Based Selective Sampling, Pool-Based Sampling.</span></p> <p style="direction: rtl;">לסיום נדון ב-Active Learning כבעיית Reinforcement Learning.</p> <p style="direction: rtl;"><strong>קישורים רלוונטים\שהזכרנו:</strong></p> <br><a href="https://amlekai-ml-ai-podcast.castos.com/episodes/episode-03-active-learning" class="btn">להאזנה</a>

Episode 02: Reinforcement Learning - Introduction

<h5 style="direction: rtl;"><strong>בפרק זה נדבר על למידה חיזוקית - Reinforcement Learning.</strong></h5> <h5 style="direction: rtl;">נדבר על מושגי היסוד בתחום (environment, state, policy, agent, reward), על סיווג של התחום הזה ב-Machine Learning, על למה זה נהיה מאוד פופולארי, על הקשיים בתחום ועל דילמת ה-Exploration - Exploitation.</h5> <p style="direction: rtl;"><strong>קישורים שהוזכרו:</strong></p> <p style="direction: rtl;"><a href="https://openai.com/blog/emergent-tool-use/" target="_blank" rel="noopener"><span style="font-weight: 400;">שיתוף פעולה בין סוכנים במשחק המחבואים</span></a></p> <br><a href="https://amlekai-ml-ai-podcast.castos.com/episodes/episode-02-reinforcement-learning-introduction" class="btn">להאזנה</a>

Episode 01: The Lottery Ticket Hypothesis

<p style="direction: rtl; text-align: right;"><strong>בפרק זה, נעסוק ב-Neural Network Pruning, </strong>כאשר נתקמד<strong>&nbsp;</strong><span style="font-weight: 400;">בפרט במאמר פורץ דרך מ2019, שנקרא "THE LOTTERY TICKET HYPOTHESIS: FINDING SPARSE TRAINABLE NEURAL NETWORKS", מבית היוצר של MIT. </span></p> <p style="direction: rtl; text-align: right;"><span style="font-weight: 400;">במאמר זה, מציעים דרך מעניינת לקצץ רשת גדולה במעל 80% מהמשקלים שלה בצורה כזו שהביצועים (ה-accuracy) לא ייפגעו. קישורים שהוזכרו בפרק:</span></p> <ul> <li><a href="https://arxiv.org/pdf/1803.03635.pdf"><span style="font-weight: 400;">THE LOTTERY TICKET HYPOTHESIS: FINDING SPARSE, TRAINABLE NEURAL NETWORKS</span></a></li> <br><a href="https://amlekai-ml-ai-podcast.castos.com/episodes/episode-01-the-lottery-ticket-hypothesis" class="btn">להאזנה</a>

Episode 00: Who are we and what do we want?

<h4 style="text-align: right; padding-left: 30px;"><strong>זהו פרק מבוא קצרצר בו אנו מספרים מי הוא תמיר נווה ומי הוא אורי גורן,&nbsp;למה החלטנו להתחיל עם הפודקאסט, ומה היינו רוצים שיהיה בפרקים הבאים.</strong></h4><br><a href="https://amlekai-ml-ai-podcast.castos.com/episodes/episode-00-who-are-we-and-what-do-we-want" class="btn">להאזנה</a>