Wszystkie artykuły opublikowane na naszej stronie, uporządkowane według daty ostatniej aktualizacji. Wyselekcjonowane kolekcje znajdziesz w sekcji Odkrywaj.

Data publikacji: 13 stycznia 2024 r. To pierwsza z 3 części serii dotyczącej LLM-ów i czatbotów. Część 2 dotycząca tworzenia chatbota za pomocą WebLLM oraz część 3 dotycząca korzystania z Prompt API są już dostępne. Duże modele językowe (LLM) stają

Data publikacji: 13 stycznia 2024 r. To jest druga część z 3 częściowej serii dotyczącej LLM i czatbotów. W poprzednim artykule omawialiśmy zalety i wady LLM na urządzeniu i w przeglądarce. Teraz, gdy lepiej rozumiesz AI po stronie klienta, możesz

Data publikacji: 13 stycznia 2024 r. Z pomocą AI, klasycznych modeli systemów uczących się i nowych dużych modeli językowych (LLM) można tworzyć wiele niesamowitych projektów. Dzięki LLM komputery mogą generować nowe treści, pisać podsumowania,

Data publikacji: 13 stycznia 2024 r. To ostatnia część z 3 artykułów na temat chatbotów wykorzystujących LLM. W poprzednich artykułach omawialiśmy możliwości LLM-ów po stronie klienta i przedstawialiśmy, jak dodać do aplikacji z listą zadań czatbota

Poinformowano Cię, że „nie blokujesz wątku głównego” ani nie chcesz dzielić długich zadań do wykonania. Ale co to oznacza?

Maskowanie CSS umożliwia użycie obrazu jako warstwy maski. Oznacza to, że jako maski możesz użyć obrazu, SVG lub gradientu, aby tworzyć ciekawe efekty bez użycia edytora obrazów.

zbiór danych web-features, panel stanu platformy internetowej, widżet stanu domyślnego i wiele innych funkcji. Sprawdź punkt odniesienia z 2024 roku.

W tym poście wyjaśniamy, czym jest leniwy ładowanie i jakie opcje masz do dyspozycji, aby stosować tę metodę w przypadku filmów.

Wstępne wczytywanie modułów umożliwia deklaratywne ładowanie modułów JavaScript z wyprzedzeniem.

Aby zoptymalizować wrażenia użytkowników, musisz wiedzieć, jak użytkownicy korzystają z formularzy. Autouzupełnianie w przeglądarce odgrywa w tym procesie ważną rolę. Dowiedz się, jak zbierać i analizować dane o tym, jak użytkownicy korzystają z autouzupełniania w formularzach.

"Chroń użytkowników i zapewnij bezpieczniejsze środowisko online dzięki wykrywaniu toksycznych treści. W pierwszej części artykułu przedstawiamy kontekst, w jakim należy stosować AI, aby ograniczać toksyczność na poziomie źródła, czyli na klawiaturze użytkownika."

Wykrywanie toksycznych treści chroni użytkowników i tworzy bezpieczniejsze środowisko online. W drugiej części dowiesz się, jak tworzyć narzędzia AI po stronie klienta, które wykrywają toksyczność i zmniejszają jej występowanie u źródła.