Przejdź do treści
RadLab
Menu
  • O Nas
    • Czym się zajmujemy
    • Projekty, które realizujemy
  • Blog
  • Playground
  • Zasoby
    • Zasoby tekstowe
    • Modele
  • Github
  • HuggingFace
  • Inne
    • Opowieści GenAI
      • The Power of Simulations: A Journey Through the Multiverse
    • Artykuły
    • Przydatne linki
    • Przydasiowe informacje
  • EN

Rok: 2021

narzędzia / word2vec

Narzędzia do tworzenia modeli word2vec

Fasttext, GloVe…

transformatory

Błędy podczas uczenia i douczania transformatorów

Chcę wykorzystać trainera do fine-tuningowania ale dostaję komunikat CUBLAS_STATUS_ALLOC_FAILED… Dostaję informację o braku pamięci na GPU pomimo tego, że mam…

Q&A / transformatory

[Q&A] Uczenie transformatorów

Q: How to continue training from a checkpoint with Trainer?

Q: How to save only best weights with huggingface transformers?

ciekawostki / transformatory

Ciekawostki o transformatorach

BERT (ang. Bidirectional Encoder Representations from Transformers), to nie głęboka sieć neuronowa! To transformator!

ciekawostki

Obsługa plików

W jaki sposób mogę pakować/rozpakowywać katalogi z bardzo dużą liczbą plików?

OSTATNIE WPISY:

  • Upubliczniamy kody2025-09-26
  • Eksplorator Informacji – nie młotek, a skalpel2025-07-14
  • Polaryzacja 3c – model z plg na HF2025-06-01
  • Przeglądarka informacji2025-05-28
  • pLLama3.1 8B — czyli średnio-duże a nawet małe GenAI dla Polskiego2024-12-08

Kategorie:

  • ciekawostki
  • eksperyment
  • embedding
  • GenAI
  • github
  • gpt2
  • huggingface
  • llama
  • metoda
  • model
  • narzędzia
  • Q&A
  • rag
  • repozytorium
  • t5
  • transformatory
  • word2vec

Archiwa:

  • 2025
  • 2024
  • 2023
  • 2022
  • 2021
  • 2020

Bądź na bieżąco
Prawa autorskie © 2025 RadLab – OnePress motyw wg FameThemes