Ollama îmbunătățește performanța pe Mac-uri cu suport pentru MLX de la Apple
Ollama, un sistem de rulare pentru modelele lingvistice de mari dimensiuni pe computere locale, a anunțat recent suport pentru framework-ul MLX de la Apple, destinat învățării automate. Această actualizare, conform Ollama, optimizează utilizarea memoriei unificate și îmbunătățește performanța de caching, oferind suport pentru noul format NVFP4 de compresie a modelului, fapt ce promite îmbunătățiri semnificative ale performanței pe Mac-urile echipate cu cipuri Apple Silicon.