O firmie
Tenstorrent przoduje w branży w najnowocześniejszych technologiach AI, rewolucjonizując oczekiwania dotyczące wydajności, łatwości użycia i efektywności kosztowej. W miarę jak AI redefiniuje paradygmat obliczeniowy, rozwiązania muszą ewoluować, aby jednoczyć innowacje w modelach oprogramowania, kompilatorach, platformach, sieciach i półprzewodnikach. Nasz zróżnicowany zespół technologów opracował od podstaw wysokowydajny procesor RISC-V i podziela pasję do AI oraz głębokie pragnienie stworzenia najlepszej możliwej platformy AI. Cenimy współpracę, ciekawość i zaangażowanie w rozwiązywanie trudnych problemów. Rozbudowujemy nasz zespół i szukamy współpracowników na wszystkich poziomach zaawansowania.
Rola
Poszukujemy doświadczonego inżyniera do prowadzenia prac nad produktualizacją i benchmarkowaniem obciążeń AI dla dużych modeli językowych (LLM). Rola ta koncentruje się na przygotowaniu modeli do użytku przez klientów, tworzeniu infrastruktury do benchmarkowania i zapewnieniu, że nasze modele AI zapewniają wiodącą w branży wydajność i skalowalność.
Ta rola jest hybrydowa, zlokalizowana w Warszawie lub Gdańsku.
Obowiązki:
- Projektowanie i wdrażanie kompleksowych protokołów testowania modeli w celu zapewnienia solidności i skalowalności modeli AI.
- Opracowywanie i przeprowadzanie testów wydajności i dokładności benchmarkowania obciążeń AI w różnych środowiskach obliczeniowych.
- Analiza i optymalizacja wydajności systemu przy użyciu zaawansowanych technik profilowania i strojenia.
- Przeprowadzanie analizy konkurencji i pozycjonowania w celu informowania o strategicznych decyzjach i rozwoju produktu.
- Współpraca z zespołami interdyscyplinarnymi w celu integracji najlepszych praktyk i innowacji w optymalizacji wydajności AI.
- Integracja LLM z popularnymi platformami serwerów wnioskowania (np. vLLM), przeprowadzanie testów i benchmarkowania przy użyciu tych platform oraz śledzenie najnowszych trendów w serwerach wnioskowania w celu wpływania na strategiczne decyzje.
- Śledzenie dokładności i wydajności modeli AI w środowisku CI/CD. Identyfikacja i triaż regresji oraz wdrażanie lub kierowanie poprawkami z innymi zespołami w celu utrzymania dokładności i wydajności modeli.
Wymagania i kwalifikacje:
- Licencjat, magister lub doktorat z informatyki, inżynierii elektrycznej, uczenia maszynowego lub pokrewnej dziedziny.
- Silne doświadczenie w benchmarkowaniu i profilowaniu modeli AI.
- Doświadczenie ze skalowalną infrastrukturą AI, w tym z rozproszonymi środowiskami obliczeniowymi.
- Biegłość w Pythonie do optymalizacji obciążeń AI.
- Znajomość frameworków LLM, akceleratorów AI i metodologii strojenia wydajności.
- Znajomość środowisk CI/CD Github jest wymogiem.
- Znajomość serwerów wnioskowania LLM (np. vLLM) jest bonusem.
- Umiejętność interpretacji i analizy interakcji sprzętowo-programowych w celu maksymalizacji wydajności modeli AI.