Institutul de Cercetare Hon Hai a marcat un moment remarcabil în istoria dezvoltării inteligenței artificiale, anunțând lansarea primului model lingvistic de mari dimensiuni (LLM) în limba chineză tradițională, denumit FoxBrain. Acest model reprezintă o realizare importantă, aducând în prim-plan capacități puternice de raționament matematic și logic, optimizate pentru utilizatorii taiwanezi.
Un proces inovator și eficient
FoxBrain a fost dezvoltat folosind resurse eficiente, necesitând doar patru săptămâni de antrenament intens pe 120 de GPU-uri NVIDIA H100. Acest proces a fost susținut de tehnologia avansată NVIDIA Quantum-2 InfiniBand, ducând la un total de 2.688 de zile GPU utilizate.
Arhitectura sa se bazează pe Meta Llama 3.1 și include 70 de miliarde de parametri. Cu o lungime a ferestrei de context de 128.000 de tokeni, FoxBrain a demonstrat performanțe de top în teste matematice și logice, întrecând modele similare din Taiwan.
Aplicații și viitorul open-source
Inițial dezvoltat pentru utilizarea internă în cadrul Foxconn, FoxBrain este deja pregătit să fie partajat în viitor ca open-source, cu scopul de a sprijini industrii diverse, inclusiv producția inteligentă, managementul lanțului de aprovizionare și dezvoltarea orașelor inteligente.
Importanța strategică
Această realizare subliniază nu doar avansul tehnologic al Taiwanului în domeniul AI, ci și eficiența unor metode de antrenament bine gândite care pot concura la nivel global, chiar și cu resurse mai limitate.