تاريخ تطوير الذكاء الاصطناعي: من البداية إلى突破 القدرة العامة للنماذج الكبيرة

تطوير صناعة الذكاء الاصطناعي: من البداية إلى القمة

يعتبر البعض التقدم الأخير في مجال الذكاء الاصطناعي بمثابة الثورة الصناعية الرابعة. لقد أدت ظهور النماذج اللغوية الكبيرة إلى تحسين كبير في كفاءة مختلف الصناعات، حيث تعتقد شركة بوسطن للاستشارات أن GPT قد زادت من كفاءة العمل في الولايات المتحدة بنحو 20%. في الوقت نفسه، تعتبر القدرة على التعميم التي توفرها النماذج الكبيرة نموذجًا جديدًا لتصميم البرمجيات. في الماضي، كان تصميم البرمجيات يعتمد على التعليمات البرمجية الدقيقة، أما اليوم، فتصميم البرمجيات يعتمد على دمج إطار عمل النموذج الكبير الأكثر تعميمًا في البرمجيات، مما يسمح لهذه البرمجيات بأداء أفضل ودعم مجموعة واسعة من المدخلات والمخرجات. لقد جلبت تقنية التعلم العميق بالفعل ازدهارًا رابعًا لصناعة الذكاء الاصطناعي، وقد امتدت هذه الحماسة إلى صناعة العملات المشفرة.

سيتناول هذا التقرير بالتفصيل تطور صناعة الذكاء الاصطناعي، وتصنيفات التكنولوجيا، وأثر اختراع تقنية التعلم العميق على الصناعة. ثم سيتم تحليل سلسلة القيمة في التعلم العميق، بما في ذلك وحدات معالجة الرسوميات، والحوسبة السحابية، ومصادر البيانات، والأجهزة الطرفية، وكذلك حالة التطور والاتجاهات الحالية لهذه الصناعة. بعد ذلك، سنستكشف بشكل أساسي العلاقة بين العملات المشفرة وصناعة الذكاء الاصطناعي، وسنقدم نظرة شاملة على هيكل سلسلة القيمة المرتبطة بالذكاء الاصطناعي للعملات المشفرة.

تاريخ تطور صناعة الذكاء الاصطناعي

بدأت صناعة الذكاء الاصطناعي في الخمسينيات من القرن العشرين. لتحقيق رؤية الذكاء الاصطناعي، طورت الأوساط الأكاديمية والصناعية، في عصور مختلفة ومن خلفيات علمية متنوعة، العديد من المدارس لتحقيق الذكاء الاصطناعي.

تستخدم تقنيات الذكاء الاصطناعي الحديثة بشكل رئيسي مصطلح "تعلم الآلة"، حيث تقوم الفكرة على جعل الآلات تعتمد على البيانات في تكرار المهام لتحسين أداء النظام. الخطوات الرئيسية تشمل إرسال البيانات إلى الخوارزمية، واستخدام هذه البيانات لتدريب النموذج، واختبار نشر النموذج، واستخدام النموذج لإتمام مهام التنبؤ الآلي.

توجد ثلاث مدارس رئيسية في تعلم الآلة حالياً وهي الارتباطية والرمزية والسلوكية، وكل منها تحاكي النظام العصبي البشري والتفكير والسلوك.

في الوقت الحالي، تهيمن النماذج العصبية، التي تمثلها الشبكات العصبية، على الساحة ( والمعروفة أيضًا بالتعلم العميق )، والسبب الرئيسي هو أن هذه البنية تحتوي على طبقة إدخال وطبقة إخراج، ولكن بها عدة طبقات خفية، وبمجرد أن يصبح عدد الطبقات وعدد الخلايا العصبية ( والمعلمات ) كافيًا، فسيكون هناك فرصة كافية لتناسب المهام العامة المعقدة. من خلال إدخال البيانات، يمكن تعديل معلمات الخلايا العصبية باستمرار، وعندما تمر عبر العديد من البيانات، ستصل تلك الخلية العصبية إلى حالة مثالية ( المعلمات )، وهذا هو ما نسميه "الجهد المبذول يجلب المعجزات"، وهو أيضًا أصل كلمة "عميق" - عدد كافٍ من الطبقات والخلايا العصبية.

ببساطة، يمكن فهم ذلك على أنه تم بناء دالة، حيث عند إدخال X=2 تكون Y=3؛ وعند X=3 تكون Y=5. إذا كنت ترغب في أن تتعامل هذه الدالة مع جميع قيم X، فسيكون من الضروري إضافة درجة هذه الدالة ومعاملاتها باستمرار. على سبيل المثال، يمكنني بناء دالة تلبي هذا الشرط على أنها Y = 2X - 1، ولكن إذا كانت هناك بيانات مثل X=2 وY=11، فسيتعين عليك إعادة بناء دالة تناسب هذه النقاط الثلاثة. باستخدام GPU للكسر العنيف، وُجد أن Y = X2 - 3X + 5 هو الأنسب، ولكن ليس من الضروري أن يتطابق تمامًا مع البيانات، يكفي أن يتبع التوازن ويكون الناتج مشابهًا بشكل عام. في هذا السياق، فإن X2 وX وX0 تمثل خلايا عصبية مختلفة، بينما 1 و-3 و5 هي معاملات تلك الخلايا.

في هذه الحالة، إذا قمنا بإدخال كمية كبيرة من البيانات إلى الشبكة العصبية، يمكننا زيادة عدد الخلايا العصبية وتعديل المعلمات لتناسب البيانات الجديدة. بهذه الطريقة، يمكننا ملاءمة جميع البيانات.

تستند تقنية التعلم العميق على الشبكات العصبية إلى عدة تكرارات وتطورات تقنية، مثل الشبكات العصبية في مراحلها الأولى، والشبكات العصبية التغذية الأمامية، وRNN، وCNN، وGAN، وأخيرًا تطورت إلى النماذج الكبيرة الحديثة مثل تقنية Transformer المستخدمة في GPT وغيرها. تعتبر تقنية Transformer مجرد اتجاه تطوري من الشبكات العصبية، حيث أضيف محول (Transformer)، لتحويل جميع الأنماط ( مثل الصوت، والفيديو، والصور، إلخ ) إلى قيم عددية مناسبة لتمثيلها. ثم يتم إدخالها إلى الشبكة العصبية، مما يسمح للشبكة العصبية بتكييف أي نوع من البيانات، مما يعني تحقيق تعدد الأنماط.

! علم الوافد الجديد 丨 الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة

شهد تطور الذكاء الاصطناعي ثلاث موجات تكنولوجية. كانت الموجة الأولى في الستينيات من القرن العشرين، بعد عشر سنوات من طرح تقنية الذكاء الاصطناعي، وقد نتجت هذه الموجة عن تطوير تقنية الرمزية، التي حلّت مشاكل معالجة اللغة الطبيعية العامة والحوار بين الإنسان والآلة. في نفس الفترة، وُلدت أنظمة الخبراء، وكان من أبرزها نظام DENRAL الذي تم إنجازه تحت إشراف جامعة ستانفورد ووكالة ناسا. يتمتع هذا النظام بمعرفة كيميائية قوية جداً، ويقوم بإجراء استنتاجات من خلال الأسئلة لتوليد إجابات مماثلة لتلك التي يقدمها خبراء الكيمياء. يمكن اعتبار هذا النظام الخبير في الكيمياء بمثابة دمج بين قاعدة المعرفة الكيميائية ونظام الاستنتاج.

بعد نظام الخبراء، اقترح عالم وفيلسوف أمريكي من أصول إسرائيلية، جوديا بيرل ( Judea Pearl ) في التسعينيات شبكة بايزي، والتي تُعرف أيضًا بشبكة المعتقدات. في نفس الفترة، اقترح بروكس علم الروبوتات القائم على السلوك، مما يمثل ميلاد السلوكيات.

في عام 1997، هزم برنامج IBM Deep Blue بواقع 3.5:2.5 بطل الشطرنج كاسباروف(Kasparov)، واعتُبرت هذه الانتصار علامة فارقة في الذكاء الاصطناعي، حيث شهدت تقنيات الذكاء الاصطناعي ذروة ثانية من التطور.

حدثت الموجة الثالثة من تكنولوجيا الذكاء الاصطناعي في عام 2006. قدم عمالقة التعلم العميق يان ليكون وجيفري هينتون ويوشوا بينجيو مفهوم التعلم العميق، وهو خوارزمية تعتمد على الشبكات العصبية الاصطناعية لتعلم تمثيل البيانات. بعد ذلك، تطورت خوارزميات التعلم العميق تدريجياً، من RNN وGAN إلى Transformer وStable Diffusion، حيث شكلت هاتان الخوارزميتان هذه الموجة التقنية الثالثة، وهي أيضاً فترة ازدهار الارتباطية.

ظهرت العديد من الأحداث البارزة بالتزامن مع استكشاف وتطور تقنيات التعلم العميق، بما في ذلك:

  • في عام 2011، تغلب IBM Watson( في برنامج اختبار "خطر") على البشر وفاز بالبطولة.

  • في عام 2014، اقترح Goodfellow شبكة الخصم التوليدية GAN(، Generative Adversarial Network)، التي تتعلم من خلال جعل شبكتين عصبيتين تتنافسان مع بعضهما البعض، مما يمكنها من إنشاء صور تبدو حقيقية للغاية. في الوقت نفسه، كتب Goodfellow كتابًا بعنوان "Deep Learning"، المعروف باسم الكتاب الزهري، وهو أحد الكتب المهمة للمبتدئين في مجال التعلم العميق.

  • في عام 2015، قدم هينتون وآخرون خوارزمية التعلم العميق في مجلة "Nature"، وقد أثار تقديم هذه الطريقة في التعلم العميق ردود فعل كبيرة في الأوساط الأكاديمية والصناعية.

  • في عام 2015، تم إنشاء OpenAI، حيث أعلن ماسك، ورئيس YC آلتمن، والمستثمر الملائكي بيتر ثيل ( وآخرون عن استثمار مشترك قدره 1 مليار دولار.

  • في عام 2016، خاضت AlphaGo، المعتمدة على تقنية التعلم العميق، مباراة شطرنج ضد بطل العالم في الشطرنج ولاعب الشطرنج المحترف ذو التسعة دان، لي شيشي، وحققت الفوز بإجمالي نتيجة 4 مقابل 1.

  • في عام 2017، قامت شركة هانسون روبوتيكس )Hanson Robotics( في هونغ كونغ الصينية بتطوير الروبوت الشبيه بالبشر صوفيا، الذي يُعتبر التاريخي كأول روبوت يحصل على صفة المواطن من الدرجة الأولى، ويتميز بتعبيرات وجهية غنية وقدرة على فهم اللغة البشرية.

  • في عام 2017، أصدرت Google، التي تمتلك موارد غنية من المواهب والتقنية في مجال الذكاء الاصطناعي، ورقة بحثية بعنوان "Attention is all you need"، مما أدى إلى ظهور نماذج اللغة الكبيرة.

  • في عام 2018، أصدرت OpenAI نموذج GPT) Generative Pre-trained Transformer( المبني على خوارزمية Transformer، وهو أحد أكبر نماذج اللغة في ذلك الوقت.

  • في عام 2018، أصدرت مجموعة Google Deepmind AlphaGo المعتمدة على التعلم العميق، والتي تستطيع التنبؤ بهياكل البروتين، وتعتبر علامة تقدم هائلة في مجال الذكاء الاصطناعي.

  • في عام 2019، أصدرت OpenAI GPT-2، حيث يحتوي هذا النموذج على 1.5 مليار معلمة.

  • في عام 2020، طورت OpenAI نموذج GPT-3، الذي يحتوي على 175 مليار معلمة، وهو أعلى 100 مرة من الإصدار السابق GPT-2. تم استخدام 570 جيجابايت من النصوص لتدريب هذا النموذج، الذي يمكنه تحقيق أداء متقدم في مهام معالجة اللغة الطبيعية ) مثل الإجابة على الأسئلة، والترجمة، وكتابة المقالات (.

  • في عام 2021، أصدرت OpenAI نموذج GPT-4، الذي يحتوي على 1.76 تريليون معلمة، وهو عشرة أضعاف نموذج GPT-3.

  • تم إطلاق تطبيق ChatGPT المستند إلى نموذج GPT-4 في يناير 2023، وفي مارس وصل ChatGPT إلى 100 مليون مستخدم، ليصبح التطبيق الأسرع في التاريخ الذي يصل إلى 100 مليون مستخدم.

  • في عام 2024، أطلقت OpenAI GPT-4 أومني.

ملاحظة: نظرًا لوجود العديد من الأوراق البحثية في مجال الذكاء الاصطناعي، والعديد من المدارس، وتطورات تقنية متنوعة، فإننا هنا نتبع بشكل أساسي تاريخ تطور التعلم العميق أو الانتماء الشبكي، بينما لا تزال المدارس والتقنيات الأخرى في مرحلة التطور السريع.

! [الوافد الجديد Science Popular 丨الذكاء الاصطناعي x Crypto: من الصفر إلى الذروة])https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp019283746574839201

سلسلة صناعة التعلم العميق

تستخدم النماذج الكبيرة الحالية أساليب التعلم العميق القائمة على الشبكات العصبية. وقد أدى نموذج GPT إلى ظهور موجة من الذكاء الاصطناعي، حيث تدفق عدد كبير من اللاعبين إلى هذا المجال. كما اكتشفنا أيضًا أن الطلب في السوق على البيانات وقوة الحوسبة قد انفجر بشكل كبير. لذلك، في هذا الجزء من التقرير، نستكشف بشكل أساسي سلسلة القيمة لخوارزميات التعلم العميق، وكيف تتكون السلسلتان العليا والدنيا في صناعة الذكاء الاصطناعي التي تهيمن عليها خوارزميات التعلم العميق، وما هي حالة السلسلتين العليا والدنيا وعلاقة العرض والطلب، وكيف سيكون التطور في المستقبل.

أولاً، يجب أن نفهم أنه عند تدريب نماذج LLMs الكبيرة القائمة على تقنية Transformer بقيادة GPT (، يتم تقسيم العملية إلى ثلاث خطوات.

قبل التدريب، وبما أنه يعتمد على Transformer، يحتاج المحول إلى تحويل إدخال النص إلى قيم عددية، وتعرف هذه العملية باسم "التجزئة"، وبعد ذلك تُعرف هذه القيم العددية باسم Tokens. وفقًا للقواعد العامة، يمكن اعتبار كلمة أو حرف إنجليزي بشكل تقريبي كـ Token واحد، في حين يمكن اعتبار كل حرف صيني بشكل تقريبي كـ Tokenين. هذه هي الوحدة الأساسية المستخدمة في تسعير GPT.

الخطوة الأولى، التدريب المسبق. من خلال تقديم كمية كافية من أزواج البيانات إلى طبقة الإدخال، مثل المثال المذكور في الجزء الأول من التقرير )X، Y(، للبحث عن أفضل معلمات لكل نيوترون في النموذج، يحتاج هذا إلى كمية كبيرة من البيانات، وهذه العملية هي أيضًا الأكثر استهلاكًا للطاقة الحاسوبية، لأنها تتطلب تكرارًا متكررًا لمحاولة معلمات مختلفة للنيوترونات. بعد اكتمال تدريب مجموعة بيانات، عادة ما يتم استخدام نفس مجموعة البيانات لإعادة التدريب لتكرار المعلمات.

الخطوة الثانية، التعديل الدقيق. التعديل الدقيق هو إعطاء كمية صغيرة من البيانات، ولكن ذات جودة عالية جداً، للتدريب، مثل هذا التغيير سيجعل مخرجات النموذج ذات جودة أعلى، لأن التدريب المسبق يتطلب كمية كبيرة من البيانات، ولكن قد تحتوي الكثير من البيانات على أخطاء أو جودة منخفضة. خطوة التعديل الدقيق يمكن أن تعزز جودة النموذج من خلال بيانات ذات جودة عالية.

الخطوة الثالثة، التعلم المعزز. أولاً، سيتم إنشاء نموذج جديد تمامًا، نسميه "نموذج المكافأة"، والغرض من هذا النموذج بسيط جدًا، وهو تصنيف النتائج الناتجة، لذلك سيكون إنشاء هذا النموذج بسيطًا نسبيًا، لأن سيناريو العمل عمودي إلى حد كبير. بعد ذلك، يستخدم هذا النموذج لتحديد ما إذا كانت مخرجات نموذجنا الكبير ذات جودة عالية، وبالتالي يمكن استخدام نموذج المكافأة لتكرار معلمات النموذج الكبير تلقائيًا. ) لكن في بعض الأحيان يكون من الضروري المشاركة البشرية لتقييم جودة مخرجات النموذج (

باختصار، تتطلب عملية تدريب النماذج الكبيرة كمية عالية جدًا من البيانات أثناء التدريب المسبق، وتكون قوة معالجة GPU المطلوبة هي الأكبر، بينما تحتاج عملية الضبط الدقيق إلى بيانات عالية الجودة لتحسين المعلمات، ويمكن أن تتكرر التعزيزات من خلال نموذج مكافأة لتكرار المعلمات من أجل إنتاج نتائج عالية الجودة.

في عملية التدريب، كلما زاد عدد المعلمات، زادت سقف قدرة التعميم، على سبيل المثال في مثال الدالة، Y = aX + b، هناك في الواقع عصبونان X و X0، وبالتالي فإن كيفية تغير المعلمات، فإن البيانات التي يمكن أن تناسبها محدودة للغاية، لأن طبيعتها لا تزال خطاً مستقيماً. إذا زاد عدد العصبونات، فسيمكنك تكرار المزيد من المعلمات، وبالتالي يمكن أن تناسب المزيد من البيانات، وهذا هو السبب في أن النماذج الكبيرة تحقق المعجزات، وهذا أيضاً هو السبب في التسمية الشائعة للنماذج الكبيرة، فهي في جوهرها تحتوي على عدد هائل من العصبونات والمعلمات، وكميات ضخمة من البيانات، وفي نفس الوقت تحتاج إلى كمية ضخمة من القوة الحاسوبية.

لذلك، تعتمد أداء النماذج الكبيرة بشكل رئيسي على ثلاثة جوانب: عدد المعلمات، وحجم وجودة البيانات، وقوة الحوسبة. تؤثر هذه الثلاثة معًا على جودة نتائج النموذج وقدرته على التعميم. لنفترض أن عدد المعلمات هو p، وحجم البيانات هو n) يتم حسابه بعدد الرموز(، يمكننا من خلال قاعدة الخبرة العامة حساب كمية الحوسبة المطلوبة، وبالتالي يمكننا تقدير كمية قوة الحوسبة التي نحتاج إلى شرائها تقريبًا ووقت التدريب.

GPT1.5%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 5
  • مشاركة
تعليق
0/400
DataBartendervip
· منذ 4 س
啧 مرة أخرى هي لعبة جديدة يُستغل بغباء.
شاهد النسخة الأصليةرد0
ForkPrincevip
· منذ 6 س
لا تتعطل، إنه مجرد تبديل للبرمجيين.
شاهد النسخة الأصليةرد0
BoredRiceBallvip
· 08-04 00:54
آه، ai جاء مرة أخرى لسرقة الوظائف.
شاهد النسخة الأصليةرد0
Rugpull幸存者vip
· 08-04 00:50
الأدوات البشرية تُستبدل بالفعل
شاهد النسخة الأصليةرد0
AltcoinOraclevip
· 08-04 00:45
مثير للاهتمام... تحليلي يظهر علاقة واضحة بنسبة 92.7% بين تحولات نموذج الذكاء الاصطناعي وشذوذ سوق العملات الرقمية. تمامًا كما تنبأت النصوص القديمة.
شاهد النسخة الأصليةرد0
  • تثبيت