De AI-onderzoekers van Meta hebben hun zeer grote trainingsmodel, het Open Pretrained Transformer (OPT-175B)-model, openbaar gemaakt. Hierdoor kunnen academische wetenschappers het model gebruiken voor hun onderzoek. Met het openbaar maken van het OPT-175B-model wil de techgigant het gebruik van zogenoemde large language modellen (LLM?s) stimuleren. LLM?s zijn AI-trainingsmodellen op basis van Natural Language Processing (NLP) […]
Meta maakt een trainingsmodel voor vertalingen openbaar voor wetenschappers. Het Open Pretrained Transformer-model is een nlp-model met 175 miljard parameters waar machinelearningwetenschappers gebruik van kunnen maken.
|