GPU
technology- Sida skapad automatiskt som wiki-länk - TODO Fyll i med mer information
Referenced in (32)
-
Big Tech Needs $2 Trillion In AI Revenue By 2030 or They Wasted Their Capex
Big Tech-företag har investerat över 776 miljarder dollar i AI-infrastruktur de senaste tre åren, vilket skapar en "A...
-
Google’s New LLM Runs on Just 0.5 GB RAM — Here’s How to Fine-Tune It Locally”
Google har lanserat en ny, liten AI-modell kallad Gemma 3 270m. Modellen är mycket resurssnål och kan köras lokalt me...
-
The KBLab Blog: BERTopic for Swedish: Topic modeling made easier via KB-BERT
BERTopic förenklar ämnesmodellering med transformer-baserade språkmodeller, vilket gör avancerad textanalys mer tillg...
-
Facket vinner mot Tesla i tingsrätten
En global chipbrist, särskilt för AI-relaterade GPU:er, leder till långa leveranstider och höga priser, vilket påverk...
-
Llama 3 Secrets Every Engineer Must Know - by Oana Olteanu
Llama 3 representerar ett betydande framsteg inom storskaliga språkmodeller, tränad på cirka 15 biljoner flerspråkiga...
-
Llama.cpp one man band! Embeddings + LLM for a full RAG stack
Artikeln presenterar en metod för att bygga en komplett RAG-applikation (Retrieval Augmented Generation) lokalt på en...
-
WWDC24 Machine Learning & AI guide - Discover - Apple Developer
Apple presenterar Apple Intelligence på WWDC24, en ny personlig AI-lösning designad med fokus på integritet. Artikeln...
-
Open-Source SORA Has Arrived! Training Your Own SORA Model!
Artikeln presenterar LATTE som en öppen källkodsmodell liknande Sora, som använder Vision Transformer-arkitekturen fö...
-
Thoughts on Apple Silicon Performance for Local LLMs
Artikeln utvärderar Apple Silicon, specifikt M2 Max och M2 Ultra, för lokal körning av stora språkmodeller (LLMs) och...
-
Petals – Run LLMs at home, BitTorrent-style
Petals är en plattform som möjliggör att köra stora språkmodeller (LLMs) lokalt på datorn, liknande BitTorrent-teknik...
-
GitHub - ray-project/llm-numbers: Numbers every LLM developer should know
Artikeln presenterar viktiga nyckeltal och kostnadsförhållanden för LLM-utvecklare, inspirerade av Jeff Deans "number...
-
GitHub - bigscience-workshop/petals: 🌸 Run LLMs at home, BitTorrent-style. Fine-tuning and inference up to 10x faster than offloading
Petals är ett system som möjliggör körning och finjustering av stora språkmodeller (LLMs) lokalt på ett distribuerat,...
-
GitHub - EleutherAI/gpt-neo: An implementation of model parallel GPT-2 and GPT-3-style models using the mesh-tensorflow library.
gpt-neo är en implementering av GPT-2- och GPT-3-liknande modeller som använder mesh-tensorflow-biblioteket. Utveckli...
-
Linus Torvalds Would Like To Use An M1 Mac For Linux, But... - Slashdot
Linus Torvalds uttrycker en önskan att använda en M1-driven Apple-laptop om den kunde köra Linux. Huvudhindret för at...
-
TensorFlow 2 meets the Object Detection API
TensorFlow object detection API (OD API) har nu officiellt stöd för TensorFlow 2.x, vilket markerar en viktig milstol...
-
2011 MBP with GPU-Fix Ableton 9/10 weird Thermal Issues
En användare med en MacBook Pro 2011 (15-tum) upplever allvarliga överhettningsproblem (GPU 126°C, CPU 80-94°C) vid a...
-
[GUIDE] How Ad Networks (and everyone else) Knows You're A Bot
Artikeln är en guide som förklarar hur annonsnätverk identifierar bottrafik, vilket är avgörande för de som sysslar m...
-
FUNIT/README.md at master · NVlabs/FUNIT
FUNIT är ett projekt för "few-shot unsupervised image-to-image translation" utvecklat av NVIDIA Corporation, som syft...
-
Introducing TensorNetwork, an Open Source Library for Efficient Tensor Calculations
TensorNetwork är ett nytt öppen källkodsbibliotek för effektiva tensorkalkyler, utvecklat av Google AI i samarbete me...
-
Google Colab
Google Colab är en molnbaserad tjänst för att skriva och köra Python-kod. Den tillhandahålls av Google och är populär...
-
Nintendo Switch Uses Nvidia Tegra X1 SoC, Clock Speeds Outed - Slashdot
Nintendo Switch kommer att drivas av Nvidias äldre Tegra X1 SoC, istället för den tidigare ryktade Tegra X2. Konsolen...
-
Everything announced at AWS re:Invent 2016
AWS re:Invent 2016 presenterade en rad nya tjänster och uppdateringar, vilket markerade en betydande expansion för Am...
-
How to Start Learning Deep Learning
Artikeln fungerar som en startpunkt för att lära sig djupinlärning, anpassad efter läsarens förkunskaper inom matemat...
-
Malware Can Use Fan Noise To Steal Data From Air-Gapped Systems - Slashdot
Forskare vid Ben-Gurion University of the Negev har utvecklat en ny metod, "Fansmitter", för att stjäla data från luf...
-
GitHub - autumnai/leaf: Open Machine Intelligence Framework for Hackers. (GPU/CPU)
leaf är ett öppet ramverk för maskininlärning, byggt i Rust, designat för att vara modulärt, högpresterande och porta...
-
Storing Passwords in a Highly Parallelized World
Artikeln argumenterar för att äldre lösenordshashningsalgoritmer som bcrypt inte längre är tillräckliga på grund av a...
-
Comparative Study of Deep Learning Software Frameworks
Artikeln presenterar en jämförande studie av fem ramverk för djupinlärning: Caffe, Neon, TensorFlow, Theano och Torch...
-
GitHub - antonmks/nvParse: Fast, gpu-based CSV parser
Artikeln introducerar nvParse, ett GPU-baserat verktyg för snabb parsning av avgränsar-separerade filer som CSV. Trad...
-
Anatomy of a password-crack, part II
Artikeln analyserar ett uppföljande försök att knäcka en läckt lösenordsfil från LivingSocial, krypterad med den svag...
-
Agilebits 1Password support and Design Flaw?
Artikelförfattaren, atom, har utvecklat en GPU-implementering för att knäcka 1Password Agile Keychain, vilket uppnådd...
-
Google Code Archive - Long-term storage for Google Code Project Hosting.
kGPU är ett ramverk för GPU-beräkningar för Linux-kärnan, vilket gör det möjligt för kärnan att direkt anropa CUDA-pr...
-
10 Raspberry Pi creations that show how amazing the tiny PC can be
Raspberry Pi, en liten och prisvärd dator, har blivit en populär plattform för en mängd olika hobbyprojekt. Artikeln ...