
Наступний рубіж науки про дані – використання більшої обчислювальної потужності. Науковці даних потребують цього, щоб виконувати дедалі складніші завдання машинного навчання (ML) та глибокого навчання (DL), не приймаючи це назавжди. В іншому випадку, стикаючись із довгим очікуванням завершення обчислювальних завдань, вчені-дані обдаються спокусою протестувати менші набори даних або виконати менше ітерацій, щоб швидше отримати результати.
Графічні процесори NVIDIA – це чудовий спосіб забезпечити обчислювальну потужність, яку вимагає команда DS, але вони висувають власні проблеми. На відміну від процесорів, на графічних процесорах ви не можете запускати кілька паралельних робочих навантажень або контейнерів. Результат полягає в тому, що графічні процесори недостатньо одночасно використовуються і недоступні для завдань, що вимагають ресурсів, марно витрачаючи ваші гроші та ваш робочий час. Що, якби існував розумний спосіб ділитися графічними процесорами, динамічно розподіляти їх між різними робочими навантаженнями та масштабувати ці робочі навантаження на декількох серверах та графічних процесорах, щоб прискорити вашу роботу?
Це можна зробити сьогодні, використовуючи різні фреймворки з відкритим кодом та трохи інтеграції, докладніше читайте тут: https://www.iguazio.com/blog/how-gpuaas-on-kubeflow-can-boost-your-productivity/
Ви також можете переглянути записане відео з мого сеансу KubeCon:
Ярон
Спочатку ця публікація була опублікована за адресою https://www.linkedin.com/pulse/how-gpu-as-a-service-kubeflow-boosts-your-yaron-haviv/.
Yaron Haviv люб’язно дозволив нам перекласти і опублікувати цю статтю.