Son zamanlarda yapay zeka alanındaki gelişmeler, bazıları tarafından dördüncü sanayi devrimi olarak görülmektedir. Büyük dil modellerinin ortaya çıkışı, birçok sektörde verimliliği önemli ölçüde artırmıştır; Boston Consulting Group, GPT'nin ABD'de yaklaşık %20'lik bir iş verimliliği artışı sağladığını düşünmektedir. Aynı zamanda, büyük modellerin sağladığı genelleme yeteneği, yeni bir yazılım tasarım paradigması olarak değerlendirilmektedir. Geçmişte yazılım tasarımı kesin kodlardan oluşuyordu, şimdi ise yazılım tasarımı daha genelleştirilmiş büyük model çerçevelerinin yazılıma entegre edilmesiyle gerçekleştirilmekte; bu yazılımlar daha iyi performans sergileyebilmekte ve daha geniş modalite girdi ve çıktısını destekleyebilmektedir. Derin öğrenme teknolojisi gerçekten de AI sektörüne dördüncü bir refah dönemi getirmiştir ve bu heyecan kripto para sektörüne de sıçramıştır.
Bu rapor, AI endüstrisinin gelişim sürecini, teknoloji sınıflarını ve derin öğrenme teknolojisinin icadının sektöre etkisini detaylı bir şekilde inceleyecektir. Ardından, derin öğrenme alanında GPU, bulut bilişim, veri kaynakları, kenar cihazları gibi sanayi zincirinin yukarı ve aşağı akışını, ayrıca gelişim durumu ve eğilimlerini derinlemesine analiz edeceğiz. Daha sonra, kripto para birimi ile AI endüstrisi arasındaki ilişkiyi esasen detaylı bir şekilde ele aldık ve kripto para ile ilgili AI sanayi zincirinin yapısını inceleyerek düzenledik.
AI sektörünün gelişim süreci
Yapay zeka endüstrisi 1950'li yıllarda başlamıştır. Yapay zekanın vizyonunu gerçekleştirmek için akademik dünya ve sanayi, farklı dönemlerde farklı disiplin arka planlarıyla yapay zekayı gerçekleştiren birçok akım geliştirmiştir.
Modern yapay zeka teknolojisi, "makine öğrenimi" terimini kullanmaktadır. Bu teknolojinin temel prensibi, makinelerin veriye dayanarak görevlerde tekrar tekrar iterasyon yaparak sistemin performansını iyileştirmesidir. Ana adımlar, verilerin algoritmaya gönderilmesi, bu verilerin modelin eğitiminde kullanılması, modelin test edilip dağıtılması ve modelin otomatik tahmin görevlerini tamamlamak için kullanılmasıdır.
Şu anda makine öğreniminin üç ana akımı vardır: bağlantıcılık, sembolistlik ve davranışçılık; bunlar sırasıyla insan sinir sistemini, düşüncesini ve davranışını taklit etmektedir.
Şu anda sinir ağlarının temsil ettiği bağlantıcı yaklaşım, derin öğrenme olarak da bilinir, üstünlük sağlamaktadır (. Bunun başlıca nedeni, bu yapının bir giriş katmanı, bir çıkış katmanı ve birden fazla gizli katmana sahip olmasıdır. Katman sayısı ve nöronların ) parametreleri ( yeterince fazla olduğunda, karmaşık genel görevleri modellemek için yeterli fırsat sağlanır. Veri girişi ile nöronların parametreleri sürekli olarak ayarlanabilir, böylece çok sayıda veri deneyimledikten sonra, bu nöron en iyi duruma ulaşır ) parametreleri (. Bu da "güçlü bir şekilde olağanüstü sonuçlar elde etmek" olarak adlandırdığımız durumdur ve bu, "derin" kelimesinin kökenidir - yeterince fazla katman ve nöron.
Basit bir örnek vermek gerekirse, bir fonksiyon oluşturduğumuz düşünülebilir; bu fonksiyona X=2 girdiğinde Y=3, X=3 girdiğinde Y=5 sonuçlarını alıyoruz. Eğer bu fonksiyonun tüm X değerlerine karşılık vermesini istiyorsak, bu fonksiyonun derecesini ve parametrelerini sürekli olarak eklememiz gerekiyor. Örneğin, bu koşulları sağlayan bir fonksiyon olarak Y = 2X -1 oluşturabilirim. Ancak eğer X=2, Y=11 olan bir veri varsa, bu üç veri noktasına uygun bir fonksiyonu yeniden yapılandırmak gerekiyor. GPU kullanarak kaba kuvvet yöntemiyle Y = X2 -3X +5 buldum; bu oldukça uygun. Ancak verilerle tamamen örtüşmesine gerek yok, sadece dengeli kalması ve benzer bir çıktı vermesi yeterli. Buradaki X2, X ve X0 farklı nöronları temsil ederken, 1, -3, 5 ise onların parametreleridir.
Bu aşamada, eğer sinir ağımıza büyük miktarda veri girişi yaparsak, yeni verileri uyumlu hale getirmek için nöronları artırabilir ve parametreleri yineleyebiliriz. Böylece tüm verilere uyum sağlayabiliriz.
Ve sinir ağına dayalı derin öğrenme teknolojisi, yukarıdaki en erken sinir ağları, ileri beslemeli sinir ağları, RNN, CNN, GAN gibi birçok teknik iterasyona ve evrime sahiptir. Son olarak modern büyük modellerin, örneğin GPT gibi, kullandığı Transformer teknolojisine evrilmiştir. Transformer teknolojisi yalnızca sinir ağlarının bir evrim yönüdür, bir dönüştürücü eklenmiştir ) Transformer (, tüm modları ) ses, video, resim gibi ( verileri karşılık gelen sayılara kodlamak için kullanılır. Daha sonra veriler sinir ağına giriş olarak verilerek, sinir ağı her tür veriyi modelleyebilir, yani çok modlu hale getirilir.
![Yeni Bilgilendirme丨AI x Kripto: Sıfırdan Zirveye])https://img-cdn.gateio.im/webp-social/moments-7e025deb1fddcd5fa716b6f144701074.webp(
Yapay zeka gelişimi üç teknik dalga geçirdi, birinci dalga 1960'lı yıllardaydı, bu dalga, yapay zeka teknolojisinin ortaya çıkmasından on yıl sonra gerçekleşti. Bu dalga, sembolist tekniklerin gelişimiyle tetiklendi ve bu teknik, genel doğal dil işleme ve insan-bilgisayar diyalogu sorunlarını çözdü. Aynı dönemde, uzman sistemler doğdu; bu, Stanford Üniversitesi'nin Amerika Birleşik Devletleri Ulusal Havacılık ve Uzay Dairesi'nin teşvikiyle tamamlanan DENRAL uzman sistemidir. Bu sistem, çok güçlü bir kimya bilgisine sahiptir ve sorular aracılığıyla çıkarım yaparak kimya uzmanıyla aynı cevapları üretir. Bu kimya uzman sistemi, kimya bilgi tabanı ve çıkarım sisteminin bir kombinasyonu olarak görülebilir.
Uzman sistemlerden sonra, 1990'larda İsrailli Amerikalı bilim insanı ve filozof Judea Pearl ), inanç ağı olarak da bilinen Bayes ağını geliştirdi. Aynı dönemde, Brooks, davranışa dayalı robot bilimi önerdi ve bu davranışçılığın doğuşunu simgeliyor.
1997'de, IBM'in derin mavi "Blue" uluslararası satranç şampiyonu Kasparov'u 3.5:2.5 yenerek büyük bir zafer kazandı. Bu zafer, yapay zekanın bir dönüm noktası olarak görülüyor ve AI teknolojisi ikinci gelişim dalgasını yaşıyor.
Üçüncü AI teknolojisi dalgası 2006 yılında gerçekleşti. Derin öğrenmenin üç büyük ismi Yann LeCun, Geoffrey Hinton ve Yoshua Bengio, yapay sinir ağlarını temel alan, verileri temsil öğrenimi için bir algoritma olarak derin öğrenme kavramını ortaya koydular. Sonrasında derin öğrenme algoritmaları, RNN, GAN'dan Transformer ve Stable Diffusion'a kadar evrimleşti; bu iki algoritma, bu üçüncü teknoloji dalgasını şekillendirdi ve bu aynı zamanda bağlantıcılığın altın çağıdır.
Derin öğrenme teknolojisinin keşfi ve evrimi ile birlikte birçok ikonik olay ortaya çıkmaya başladı, bunlar arasında:
2011 yılında, IBM'in Watson(, Tehlikeli Sınırlar) Jeopardy( bilgi yarışmasında insanları yenerek şampiyon oldu.
2014 yılında, Goodfellow GAN) üreten karşıt ağ, Generative Adversarial Network('ı önerdi. İki sinir ağının karşılıklı olarak oyun oynaması yoluyla öğrenim yaparak gerçek gibi görünen fotoğraflar üretebiliyor. Aynı zamanda Goodfellow, "Deep Learning" adlı bir kitap yazdı, bu kitap çiçek kitabı olarak adlandırılmakta ve derin öğrenme alanında önemli bir başlangıç kitabı olarak kabul edilmektedir.
2015 yılında, Hinton ve arkadaşları "Nature" dergisinde derin öğrenme algoritmasını önerdiler. Bu derin öğrenme yönteminin önerilmesi, hemen akademik çevrelerde ve sanayi dünyasında büyük bir yankı uyandırdı.
2015 yılında OpenAI kuruldu, Musk, YC başkanı Altman, girişimci yatırımcı Peter Thiel ) Peter Thiel ( gibi kişiler 1 milyar dolar ortak yatırım yapacaklarını açıkladılar.
2016 yılında, derin öğrenme teknolojisine dayalı AlphaGo, Go dünya şampiyonu ve profesyonel dokuzuncu dan oyuncusu Lee Sedol ile Go insan-makine savaşına girdi ve toplamda 4-1 galip geldi.
2017 yılında, Hong Kong'daki Hanson Robotics şirketi )Hanson Robotics( tarafından geliştirilen Sophia adlı insansı robot, tarihte birinci sınıf vatandaşlık kazanmış ilk robot olarak kabul edilmektedir. Zengin yüz ifadelerine ve insan dilini anlama yeteneğine sahiptir.
2017 yılında, yapay zeka alanında zengin yetenek ve teknoloji birikimine sahip olan Google, "Attention is all you need" başlıklı bir makale yayınlayarak Transformer algoritmasını tanıttı ve büyük ölçekli dil modelleri ortaya çıkmaya başladı.
2018 yılında, OpenAI, Transformer algoritmasına dayanan GPT) Generatif Önceden Eğitilmiş Dönüştürücü('yi piyasaya sürdü, bu da o dönemdeki en büyük dil modellerinden biriydi.
2018'de, Google ekibi Deepmind, derin öğrenmeye dayalı AlphaGo'yu piyasaya sürdü ve proteinlerin yapı tahmini yapabiliyor. Bu, yapay zeka alanında büyük bir ilerleme işareti olarak görülüyor.
2019'da OpenAI, 15 milyar parametreye sahip GPT-2 modelini yayımladı.
2020 yılında, OpenAI tarafından geliştirilen GPT-3, 175 milyar parametreye sahip olup, önceki versiyon GPT-2'den 100 kat daha fazladır. Bu model, 570 GB metin kullanılarak eğitilmiş olup, çeşitli NLP) doğal dil işleme( görevlerinde) soru yanıtlama, çeviri, makale yazma( gibi alanlarda en ileri performansa ulaşabilmektedir.
2021 yılında OpenAI, 1.76 trilyon parametreye sahip GPT-4'ü piyasaya sürdü, bu model GPT-3'ten 10 kat daha fazla.
2023 yılının Ocak ayında GPT-4 modeline dayanan ChatGPT uygulaması piyasaya sürüldü, Mart ayında ChatGPT bir milyar kullanıcıya ulaştı ve tarihin en hızlı bir milyar kullanıcıya ulaşan uygulaması oldu.
2024 yılında, OpenAI GPT-4 omni'yi piyasaya sürecek.
Not: Yapay zeka ile ilgili birçok makale, birçok akım ve farklı teknolojik evrimler olduğundan, burada esas olarak derin öğrenme veya bağlantıcıcılığın gelişim tarihini takip edeceğiz, diğer akımlar ve teknolojiler ise hala hızlı bir gelişim sürecindedir.
![Yeni Bilgilendirme丨AI x Kripto: Sıfırdan Zirveye])https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp(
Derin Öğrenme Endüstri Zinciri
Mevcut büyük model dilleri, sinir ağına dayalı derin öğrenme yöntemleri kullanmaktadır. GPT öncülüğündeki büyük modeller, yapay zeka alanında bir dalga yarattı; birçok oyuncu bu alana akın etti. Ayrıca, veri ve hesaplama gücüne olan talebin büyük ölçüde patladığını gözlemledik. Bu nedenle, raporun bu bölümünde, derin öğrenme algoritmalarının endüstri zincirini keşfetmeye odaklanıyoruz. Derin öğrenme algoritmalarının hakim olduğu AI endüstrisinde, tedarik zincirinin nasıl oluştuğunu, tedarik zincirinin durumu ile arz-talep ilişkisini ve gelecekteki gelişmeleri inceliyoruz.
Öncelikle netleştirmemiz gereken şey, Transformer teknolojisine dayalı GPT öncülüğündeki LLM'lerin) büyük modelinin( eğitimi sırasında toplamda üç aşamaya ayrıldığıdır.
Eğitimden önce, Transformer'a dayandığı için, dönüştürücünün metin girişi sayılara dönüştürmesi gerekiyor, bu işleme "Tokenizasyon" denir, ardından bu sayılara Token denir. Genel bir kural olarak, bir İngilizce kelime veya karakter kabaca bir Token olarak kabul edilebilirken, her bir Çince karakter kabaca iki Token olarak düşünülebilir. Bu, GPT'nin fiyatlandırmada kullandığı temel birimdir.
İlk adım, ön eğitim. Giriş katmanına yeterince veri çifti vererek, raporun ilk bölümünde örnekleri verilen )X,Y( gibi, modelin altındaki her bir nöronun en iyi parametrelerini bulmak, bu aşamada büyük miktarda veriye ihtiyaç vardır ve bu süreç aynı zamanda işlem gücü açısından en yoğun olan süreçtir, çünkü nöronları tekrar tekrar farklı parametrelerle denemek gerekmektedir. Bir veri çifti grubu eğitim tamamlandıktan sonra, genellikle aynı veri grubu parametreleri yinelemek için ikinci bir eğitim süreci için kullanılır.
İkinci adım, ince ayar. İnce ayar, az sayıda ancak çok kaliteli verilerle eğitim vermektir; bu tür bir değişiklik, modelin çıktısının kalitesini artırır çünkü ön eğitim büyük miktarda veri gerektirir, ancak birçok veri hata veya düşük kalite içerebilir. İnce ayar adımı, kaliteli verilerle modelin kalitesini artırabilir.
Üçüncü adım, pekiştirmeli öğrenme. İlk olarak, tamamen yeni bir model oluşturulacak, buna "ödül modeli" diyoruz. Bu modelin amacı oldukça basit; çıkış sonuçlarını sıralamak. Bu nedenle, bu modeli gerçekleştirmek oldukça kolaydır çünkü iş senaryosu oldukça dikeydir. Daha sonra bu modeli, büyük modelimizin çıktısının yüksek kaliteli olup olmadığını belirlemek için kullanacağız; böylece bir ödül modeli kullanarak büyük modelin parametrelerini otomatik olarak yineleyebiliriz. ) Ancak bazen modelin çıktı kalitesini değerlendirmek için insan müdahalesi de gereklidir. (
Kısacası, büyük modellerin eğitim sürecinde, ön eğitim verinin miktarı için çok yüksek gereksinimlere sahiptir, gereken GPU hesaplama gücü de en fazlasıdır. İnce ayar ise parametreleri geliştirmek için daha yüksek kaliteli verilere ihtiyaç duyar. Pekiştirmeli öğrenme, daha yüksek kaliteli sonuçlar elde etmek için parametreleri tekrar tekrar yinelemek amacıyla bir ödül modeli kullanabilir.
Eğitim sürecinde, parametre sayısı arttıkça genelleme yeteneğinin tavanı da yükselir. Örneğin, Y = aX + b fonksiyonunu ele alırsak, aslında iki nöron X ve X0 vardır; dolayısıyla parametrelerin nasıl değiştiği, uyum sağlayabileceği veriler son derece sınırlıdır, çünkü özünde bu hala bir doğru. Eğer nöron sayısı artarsa, o zaman daha fazla parametreyi yineleyebiliriz ve daha fazla veriye uyum sağlayabiliriz. İşte büyük modellerin mucizeler yaratmasının nedeni budur ve bu nedenle yaygın olarak büyük model olarak adlandırılmaktadır; özünde devasa nöronlar ve parametreler ile devasa veriler vardır ve aynı zamanda büyük bir hesaplama gücüne ihtiyaç duyar.
Bu nedenle, büyük modelin performansını etkileyen başlıca üç faktör vardır: parametre sayısı, veri miktarı ve kalitesi, hesaplama gücü. Bu üçü, büyük modelin sonuç kalitesini ve genelleme yeteneğini ortak olarak etkiler. Parametre sayısını p, veri miktarını n) Token sayısı cinsinden hesaplayarak, gereken hesaplama miktarını genel bir deneysel kural ile hesaplayabiliriz. Böylece, yaklaşık olarak satın almamız gereken hesaplama gücünü ve eğitim süresini tahmin edebiliriz.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
8 Likes
Reward
8
5
Share
Comment
0/400
DataBartender
· 4h ago
Tüh, yine enayileri oyuna getirmek için yeni bir oyuncak.
View OriginalReply0
ForkPrince
· 6h ago
Sakın gülme, kodcu sadece kılık değiştirdi.
View OriginalReply0
BoredRiceBall
· 08-04 00:54
Ah, ai yine işimizi elden alıyor.
View OriginalReply0
Rugpull幸存者
· 08-04 00:50
Araç insanlar yok ediliyor.
View OriginalReply0
AltcoinOracle
· 08-04 00:45
ilginç... analizim, AI paradigma değişimleri ile kripto piyasası fraktalları arasında %92.7'lik belirgin bir korelasyon gösteriyor. tam olarak antik metinlerin öngördüğü gibi
Yapay Zeka Gelişim Süreci: Başlangıçtan Büyük Model Genelleme Yeteneği Atılımına
AI Sektörü Gelişimi: Başlangıçtan Zirveye
Son zamanlarda yapay zeka alanındaki gelişmeler, bazıları tarafından dördüncü sanayi devrimi olarak görülmektedir. Büyük dil modellerinin ortaya çıkışı, birçok sektörde verimliliği önemli ölçüde artırmıştır; Boston Consulting Group, GPT'nin ABD'de yaklaşık %20'lik bir iş verimliliği artışı sağladığını düşünmektedir. Aynı zamanda, büyük modellerin sağladığı genelleme yeteneği, yeni bir yazılım tasarım paradigması olarak değerlendirilmektedir. Geçmişte yazılım tasarımı kesin kodlardan oluşuyordu, şimdi ise yazılım tasarımı daha genelleştirilmiş büyük model çerçevelerinin yazılıma entegre edilmesiyle gerçekleştirilmekte; bu yazılımlar daha iyi performans sergileyebilmekte ve daha geniş modalite girdi ve çıktısını destekleyebilmektedir. Derin öğrenme teknolojisi gerçekten de AI sektörüne dördüncü bir refah dönemi getirmiştir ve bu heyecan kripto para sektörüne de sıçramıştır.
Bu rapor, AI endüstrisinin gelişim sürecini, teknoloji sınıflarını ve derin öğrenme teknolojisinin icadının sektöre etkisini detaylı bir şekilde inceleyecektir. Ardından, derin öğrenme alanında GPU, bulut bilişim, veri kaynakları, kenar cihazları gibi sanayi zincirinin yukarı ve aşağı akışını, ayrıca gelişim durumu ve eğilimlerini derinlemesine analiz edeceğiz. Daha sonra, kripto para birimi ile AI endüstrisi arasındaki ilişkiyi esasen detaylı bir şekilde ele aldık ve kripto para ile ilgili AI sanayi zincirinin yapısını inceleyerek düzenledik.
AI sektörünün gelişim süreci
Yapay zeka endüstrisi 1950'li yıllarda başlamıştır. Yapay zekanın vizyonunu gerçekleştirmek için akademik dünya ve sanayi, farklı dönemlerde farklı disiplin arka planlarıyla yapay zekayı gerçekleştiren birçok akım geliştirmiştir.
Modern yapay zeka teknolojisi, "makine öğrenimi" terimini kullanmaktadır. Bu teknolojinin temel prensibi, makinelerin veriye dayanarak görevlerde tekrar tekrar iterasyon yaparak sistemin performansını iyileştirmesidir. Ana adımlar, verilerin algoritmaya gönderilmesi, bu verilerin modelin eğitiminde kullanılması, modelin test edilip dağıtılması ve modelin otomatik tahmin görevlerini tamamlamak için kullanılmasıdır.
Şu anda makine öğreniminin üç ana akımı vardır: bağlantıcılık, sembolistlik ve davranışçılık; bunlar sırasıyla insan sinir sistemini, düşüncesini ve davranışını taklit etmektedir.
Şu anda sinir ağlarının temsil ettiği bağlantıcı yaklaşım, derin öğrenme olarak da bilinir, üstünlük sağlamaktadır (. Bunun başlıca nedeni, bu yapının bir giriş katmanı, bir çıkış katmanı ve birden fazla gizli katmana sahip olmasıdır. Katman sayısı ve nöronların ) parametreleri ( yeterince fazla olduğunda, karmaşık genel görevleri modellemek için yeterli fırsat sağlanır. Veri girişi ile nöronların parametreleri sürekli olarak ayarlanabilir, böylece çok sayıda veri deneyimledikten sonra, bu nöron en iyi duruma ulaşır ) parametreleri (. Bu da "güçlü bir şekilde olağanüstü sonuçlar elde etmek" olarak adlandırdığımız durumdur ve bu, "derin" kelimesinin kökenidir - yeterince fazla katman ve nöron.
Basit bir örnek vermek gerekirse, bir fonksiyon oluşturduğumuz düşünülebilir; bu fonksiyona X=2 girdiğinde Y=3, X=3 girdiğinde Y=5 sonuçlarını alıyoruz. Eğer bu fonksiyonun tüm X değerlerine karşılık vermesini istiyorsak, bu fonksiyonun derecesini ve parametrelerini sürekli olarak eklememiz gerekiyor. Örneğin, bu koşulları sağlayan bir fonksiyon olarak Y = 2X -1 oluşturabilirim. Ancak eğer X=2, Y=11 olan bir veri varsa, bu üç veri noktasına uygun bir fonksiyonu yeniden yapılandırmak gerekiyor. GPU kullanarak kaba kuvvet yöntemiyle Y = X2 -3X +5 buldum; bu oldukça uygun. Ancak verilerle tamamen örtüşmesine gerek yok, sadece dengeli kalması ve benzer bir çıktı vermesi yeterli. Buradaki X2, X ve X0 farklı nöronları temsil ederken, 1, -3, 5 ise onların parametreleridir.
Bu aşamada, eğer sinir ağımıza büyük miktarda veri girişi yaparsak, yeni verileri uyumlu hale getirmek için nöronları artırabilir ve parametreleri yineleyebiliriz. Böylece tüm verilere uyum sağlayabiliriz.
Ve sinir ağına dayalı derin öğrenme teknolojisi, yukarıdaki en erken sinir ağları, ileri beslemeli sinir ağları, RNN, CNN, GAN gibi birçok teknik iterasyona ve evrime sahiptir. Son olarak modern büyük modellerin, örneğin GPT gibi, kullandığı Transformer teknolojisine evrilmiştir. Transformer teknolojisi yalnızca sinir ağlarının bir evrim yönüdür, bir dönüştürücü eklenmiştir ) Transformer (, tüm modları ) ses, video, resim gibi ( verileri karşılık gelen sayılara kodlamak için kullanılır. Daha sonra veriler sinir ağına giriş olarak verilerek, sinir ağı her tür veriyi modelleyebilir, yani çok modlu hale getirilir.
![Yeni Bilgilendirme丨AI x Kripto: Sıfırdan Zirveye])https://img-cdn.gateio.im/webp-social/moments-7e025deb1fddcd5fa716b6f144701074.webp(
Yapay zeka gelişimi üç teknik dalga geçirdi, birinci dalga 1960'lı yıllardaydı, bu dalga, yapay zeka teknolojisinin ortaya çıkmasından on yıl sonra gerçekleşti. Bu dalga, sembolist tekniklerin gelişimiyle tetiklendi ve bu teknik, genel doğal dil işleme ve insan-bilgisayar diyalogu sorunlarını çözdü. Aynı dönemde, uzman sistemler doğdu; bu, Stanford Üniversitesi'nin Amerika Birleşik Devletleri Ulusal Havacılık ve Uzay Dairesi'nin teşvikiyle tamamlanan DENRAL uzman sistemidir. Bu sistem, çok güçlü bir kimya bilgisine sahiptir ve sorular aracılığıyla çıkarım yaparak kimya uzmanıyla aynı cevapları üretir. Bu kimya uzman sistemi, kimya bilgi tabanı ve çıkarım sisteminin bir kombinasyonu olarak görülebilir.
Uzman sistemlerden sonra, 1990'larda İsrailli Amerikalı bilim insanı ve filozof Judea Pearl ), inanç ağı olarak da bilinen Bayes ağını geliştirdi. Aynı dönemde, Brooks, davranışa dayalı robot bilimi önerdi ve bu davranışçılığın doğuşunu simgeliyor.
1997'de, IBM'in derin mavi "Blue" uluslararası satranç şampiyonu Kasparov'u 3.5:2.5 yenerek büyük bir zafer kazandı. Bu zafer, yapay zekanın bir dönüm noktası olarak görülüyor ve AI teknolojisi ikinci gelişim dalgasını yaşıyor.
Üçüncü AI teknolojisi dalgası 2006 yılında gerçekleşti. Derin öğrenmenin üç büyük ismi Yann LeCun, Geoffrey Hinton ve Yoshua Bengio, yapay sinir ağlarını temel alan, verileri temsil öğrenimi için bir algoritma olarak derin öğrenme kavramını ortaya koydular. Sonrasında derin öğrenme algoritmaları, RNN, GAN'dan Transformer ve Stable Diffusion'a kadar evrimleşti; bu iki algoritma, bu üçüncü teknoloji dalgasını şekillendirdi ve bu aynı zamanda bağlantıcılığın altın çağıdır.
Derin öğrenme teknolojisinin keşfi ve evrimi ile birlikte birçok ikonik olay ortaya çıkmaya başladı, bunlar arasında:
2011 yılında, IBM'in Watson(, Tehlikeli Sınırlar) Jeopardy( bilgi yarışmasında insanları yenerek şampiyon oldu.
2014 yılında, Goodfellow GAN) üreten karşıt ağ, Generative Adversarial Network('ı önerdi. İki sinir ağının karşılıklı olarak oyun oynaması yoluyla öğrenim yaparak gerçek gibi görünen fotoğraflar üretebiliyor. Aynı zamanda Goodfellow, "Deep Learning" adlı bir kitap yazdı, bu kitap çiçek kitabı olarak adlandırılmakta ve derin öğrenme alanında önemli bir başlangıç kitabı olarak kabul edilmektedir.
2015 yılında, Hinton ve arkadaşları "Nature" dergisinde derin öğrenme algoritmasını önerdiler. Bu derin öğrenme yönteminin önerilmesi, hemen akademik çevrelerde ve sanayi dünyasında büyük bir yankı uyandırdı.
2015 yılında OpenAI kuruldu, Musk, YC başkanı Altman, girişimci yatırımcı Peter Thiel ) Peter Thiel ( gibi kişiler 1 milyar dolar ortak yatırım yapacaklarını açıkladılar.
2016 yılında, derin öğrenme teknolojisine dayalı AlphaGo, Go dünya şampiyonu ve profesyonel dokuzuncu dan oyuncusu Lee Sedol ile Go insan-makine savaşına girdi ve toplamda 4-1 galip geldi.
2017 yılında, Hong Kong'daki Hanson Robotics şirketi )Hanson Robotics( tarafından geliştirilen Sophia adlı insansı robot, tarihte birinci sınıf vatandaşlık kazanmış ilk robot olarak kabul edilmektedir. Zengin yüz ifadelerine ve insan dilini anlama yeteneğine sahiptir.
2017 yılında, yapay zeka alanında zengin yetenek ve teknoloji birikimine sahip olan Google, "Attention is all you need" başlıklı bir makale yayınlayarak Transformer algoritmasını tanıttı ve büyük ölçekli dil modelleri ortaya çıkmaya başladı.
2018 yılında, OpenAI, Transformer algoritmasına dayanan GPT) Generatif Önceden Eğitilmiş Dönüştürücü('yi piyasaya sürdü, bu da o dönemdeki en büyük dil modellerinden biriydi.
2018'de, Google ekibi Deepmind, derin öğrenmeye dayalı AlphaGo'yu piyasaya sürdü ve proteinlerin yapı tahmini yapabiliyor. Bu, yapay zeka alanında büyük bir ilerleme işareti olarak görülüyor.
2019'da OpenAI, 15 milyar parametreye sahip GPT-2 modelini yayımladı.
2020 yılında, OpenAI tarafından geliştirilen GPT-3, 175 milyar parametreye sahip olup, önceki versiyon GPT-2'den 100 kat daha fazladır. Bu model, 570 GB metin kullanılarak eğitilmiş olup, çeşitli NLP) doğal dil işleme( görevlerinde) soru yanıtlama, çeviri, makale yazma( gibi alanlarda en ileri performansa ulaşabilmektedir.
2021 yılında OpenAI, 1.76 trilyon parametreye sahip GPT-4'ü piyasaya sürdü, bu model GPT-3'ten 10 kat daha fazla.
2023 yılının Ocak ayında GPT-4 modeline dayanan ChatGPT uygulaması piyasaya sürüldü, Mart ayında ChatGPT bir milyar kullanıcıya ulaştı ve tarihin en hızlı bir milyar kullanıcıya ulaşan uygulaması oldu.
2024 yılında, OpenAI GPT-4 omni'yi piyasaya sürecek.
Not: Yapay zeka ile ilgili birçok makale, birçok akım ve farklı teknolojik evrimler olduğundan, burada esas olarak derin öğrenme veya bağlantıcıcılığın gelişim tarihini takip edeceğiz, diğer akımlar ve teknolojiler ise hala hızlı bir gelişim sürecindedir.
![Yeni Bilgilendirme丨AI x Kripto: Sıfırdan Zirveye])https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp(
Derin Öğrenme Endüstri Zinciri
Mevcut büyük model dilleri, sinir ağına dayalı derin öğrenme yöntemleri kullanmaktadır. GPT öncülüğündeki büyük modeller, yapay zeka alanında bir dalga yarattı; birçok oyuncu bu alana akın etti. Ayrıca, veri ve hesaplama gücüne olan talebin büyük ölçüde patladığını gözlemledik. Bu nedenle, raporun bu bölümünde, derin öğrenme algoritmalarının endüstri zincirini keşfetmeye odaklanıyoruz. Derin öğrenme algoritmalarının hakim olduğu AI endüstrisinde, tedarik zincirinin nasıl oluştuğunu, tedarik zincirinin durumu ile arz-talep ilişkisini ve gelecekteki gelişmeleri inceliyoruz.
Öncelikle netleştirmemiz gereken şey, Transformer teknolojisine dayalı GPT öncülüğündeki LLM'lerin) büyük modelinin( eğitimi sırasında toplamda üç aşamaya ayrıldığıdır.
Eğitimden önce, Transformer'a dayandığı için, dönüştürücünün metin girişi sayılara dönüştürmesi gerekiyor, bu işleme "Tokenizasyon" denir, ardından bu sayılara Token denir. Genel bir kural olarak, bir İngilizce kelime veya karakter kabaca bir Token olarak kabul edilebilirken, her bir Çince karakter kabaca iki Token olarak düşünülebilir. Bu, GPT'nin fiyatlandırmada kullandığı temel birimdir.
İlk adım, ön eğitim. Giriş katmanına yeterince veri çifti vererek, raporun ilk bölümünde örnekleri verilen )X,Y( gibi, modelin altındaki her bir nöronun en iyi parametrelerini bulmak, bu aşamada büyük miktarda veriye ihtiyaç vardır ve bu süreç aynı zamanda işlem gücü açısından en yoğun olan süreçtir, çünkü nöronları tekrar tekrar farklı parametrelerle denemek gerekmektedir. Bir veri çifti grubu eğitim tamamlandıktan sonra, genellikle aynı veri grubu parametreleri yinelemek için ikinci bir eğitim süreci için kullanılır.
İkinci adım, ince ayar. İnce ayar, az sayıda ancak çok kaliteli verilerle eğitim vermektir; bu tür bir değişiklik, modelin çıktısının kalitesini artırır çünkü ön eğitim büyük miktarda veri gerektirir, ancak birçok veri hata veya düşük kalite içerebilir. İnce ayar adımı, kaliteli verilerle modelin kalitesini artırabilir.
Üçüncü adım, pekiştirmeli öğrenme. İlk olarak, tamamen yeni bir model oluşturulacak, buna "ödül modeli" diyoruz. Bu modelin amacı oldukça basit; çıkış sonuçlarını sıralamak. Bu nedenle, bu modeli gerçekleştirmek oldukça kolaydır çünkü iş senaryosu oldukça dikeydir. Daha sonra bu modeli, büyük modelimizin çıktısının yüksek kaliteli olup olmadığını belirlemek için kullanacağız; böylece bir ödül modeli kullanarak büyük modelin parametrelerini otomatik olarak yineleyebiliriz. ) Ancak bazen modelin çıktı kalitesini değerlendirmek için insan müdahalesi de gereklidir. (
Kısacası, büyük modellerin eğitim sürecinde, ön eğitim verinin miktarı için çok yüksek gereksinimlere sahiptir, gereken GPU hesaplama gücü de en fazlasıdır. İnce ayar ise parametreleri geliştirmek için daha yüksek kaliteli verilere ihtiyaç duyar. Pekiştirmeli öğrenme, daha yüksek kaliteli sonuçlar elde etmek için parametreleri tekrar tekrar yinelemek amacıyla bir ödül modeli kullanabilir.
Eğitim sürecinde, parametre sayısı arttıkça genelleme yeteneğinin tavanı da yükselir. Örneğin, Y = aX + b fonksiyonunu ele alırsak, aslında iki nöron X ve X0 vardır; dolayısıyla parametrelerin nasıl değiştiği, uyum sağlayabileceği veriler son derece sınırlıdır, çünkü özünde bu hala bir doğru. Eğer nöron sayısı artarsa, o zaman daha fazla parametreyi yineleyebiliriz ve daha fazla veriye uyum sağlayabiliriz. İşte büyük modellerin mucizeler yaratmasının nedeni budur ve bu nedenle yaygın olarak büyük model olarak adlandırılmaktadır; özünde devasa nöronlar ve parametreler ile devasa veriler vardır ve aynı zamanda büyük bir hesaplama gücüne ihtiyaç duyar.
Bu nedenle, büyük modelin performansını etkileyen başlıca üç faktör vardır: parametre sayısı, veri miktarı ve kalitesi, hesaplama gücü. Bu üçü, büyük modelin sonuç kalitesini ve genelleme yeteneğini ortak olarak etkiler. Parametre sayısını p, veri miktarını n) Token sayısı cinsinden hesaplayarak, gereken hesaplama miktarını genel bir deneysel kural ile hesaplayabiliriz. Böylece, yaklaşık olarak satın almamız gereken hesaplama gücünü ve eğitim süresini tahmin edebiliriz.