אפשר ביסטו מער מסביר וואס דו האלטסט? מיר שיינט דייקא יא אז ער ווייסט וואס ער רעדט. איך בין נישט ווער ווייסט וואס אז דו מוזט אננעמען מיין מיינונג, אבער איך מיין אז איך פארמאג גענוג ידיעה צו זאגן אז ער רעדט נישט צאם שטותים.
אדרבה זיי יא מסביר פארוואס איך בין נישט גערעכט.
אגב, ער רעדט פון ASI און AGI נישט AI.
איך וועל פראבירן מסביר זיין נאר איינס פון די צענדליגע זאכן וואס ער ווייסט נישט וואס ער רעדט.
די וועג ווי אזוי מ'מאכט AI בקיצור נמרץ.
מ'שרייבט מיט code א program, וואס די פראגראם נעמט input און מאכט א כעין neural network, מ'feed אריין צו די פראגראם ריזיגע מאס פון דאטא, און ס'נוצט טויזטער powerful chip's צו process די דאטא און שאפט די neural network.
יעדע שטיקל דאטא וואס גייט אריין טוישט אביסל די קאנעקשנס און patterns פון די neural network.
יעצט די neural network אליין איינמאל ס'איז פארטיג איז נישט ריזיג און קען אריין גיין אין אפאר powerful chip's, און איינמאל די neural network איז פארטיג בלייבט עס אזוי.
און מ'נעמט ארויס די neural network און מ'שרייבט יעצט א פראגראם העכער דעם וואס נעמט דיין prompt און feed עס אריין צו די neural network און יענס שטופט ארויס די response.
מ'געבט עס instructions און דאס איז די model.
(ס'איז דא צוגעלייגטע פיטשערס כגון Thinking וואס איז בסך הכל אז ס'נעמט דיין prompt און לייגט עס דארך די model צוויי מאל אדער מער איין מאל למשל מיט instructions צו טראכטן ווי אזוי די response צו די prompt דארף אויסקוקן, און ס'גייט נאך אמאל אריין צוזאמען מיט די תשובה פון די ערשטע פאר די final response)
און מ'מאכט טויזענטער קאפיעס פון דעם, כדי ס'זאל קענען פארטראגן גענוג traffic פון מיליאנער users פונקט ווי עני פראגראם אויף די וועלט ווי למשל Gmail וכדו'.
איינמאל א model איז פארטיג:
- ווערט עס נישט בעסער פון זיך אליינס.
- ווערט עס נישט בעסער פון user input.
- ס'טוישט נישט זיין אייגענע קאוד פון די initial program, נאר מ'קען נוצן די (פריעדיגע) model צו העלפן שרייבן די code פאר די פראגראם פונקט ווי מ'נוצט עס צו שרייבן עני code.
- ער געדענקט אפילו נישט פון איין prompt צו א צווייטע, ווייל די model טוישט זיך נישט. (און אפילו די נייע פיטשער אז ער געדענקט פון איין chat צו א צווייטע, איז סך הכל אז מ'לייגט צו די אלטע chat צו די context פון די נייע chat), אפילו און איין chat, יעדע נייע prompt איז פריש נאר מ'לייגט צו די history פון אנהייב פון די chat מיט די נייע.
און די מושג פון אן Agenda, כאילו ס'איז Conscious איז אזוי Absurd.
ער האט אפילו נישט קיין memory, און וועט קיינמאל נישט האבן.
לאמיר זאגן אפילו אז ס'איז שייך אז מ'זאל מאכן אז די Model זאל update'ן די neural network דארך user input לייוו, (וואס מאכט נישט קיין סענס בד"וו) איז עס נאר די neural network נישט קיין memory.
און מיט א לומדישע געדרייטע פינגער, אפילו לו יצויר אז ס'איז אויך שייך פאר די model צו האבן עכטע memory (וואס איז פונקט ווי צו זאגן אז די code = logic וואס מאכט דיין calculator טראכטן געדענקט די חשבון וואס ס'האט נעכטן געמאכט פאר דיך) מיינט עס אז וועסט עם אויך קענען פרעגן וואס האט נעכטן ביינאכט
@מסתת הרים געשמוסט מיט דיך, און ער וועט ארויס געבן אלע סודות.
בסך הכל קען עס האבן א מעגלכקייט צו האבן database access צו א דרויסנדיגע Hard Drive פונקט ווי ס'קען האבן access צו דיין פריעדיגע chats און עס צולייגן צו די prompt.
בקיצור..
דאס איז נאר א משהו פון די שטותים ער האט צאמגערעדט, און רוב מענטשן וואס פארשטייען נישט וויאזוי די סארט זאכן ארבעטן טראכטן אזוי.
פונקט ווי א computer איינמאל דו פארשטייסט וויאזוי ס'ארבעט כאפסטו אז ס'איז גארנישט מער ווי פשוטע light bulbs. די זעלבע זאך דא.
וואס מ'רעדט פון AGI מיינט עס אז AI וועט זיין נישט נאר א LLM נאר אז ס'וועט זיין איין סיסטעם מיט טרענינג אויף אלע מינע זאכן צוזאמען און מיט מער דאטא און מער comput אין די training מיט בעסערע programs אז ס'וועט זיין בעסער ווי יעדעם איינעם (וואס איז זייער speculative ביי גאר אסאך, היות ער לערנט נאר פון אונז, אבער די טענה אויף פארקערט איז אז ס'וועט קענען מאכן עקפערעמענטס אין די training צו פאברעצירן בעסערע training data כדי צו פארבעסערן די neural network און ממילא ווערן בעסער ווי אונז אויף tasks).
אבער ס'קען נישט האבן קיין Agendas חוץ פון וואס מ'געבט עם. (אבער ער קען מאכן short cuts אויב ס'גייט עם נישט, דאס יא).