Sortowanie
Źródło opisu
ebookpoint BIBLIO
(48)
Katalog księgozbioru
(9)
Forma i typ
E-booki
(48)
Książki
(9)
Literatura faktu, eseje, publicystyka
(3)
Publikacje naukowe
(2)
Publikacje popularnonaukowe
(2)
Audiobooki
(1)
Proza
(1)
Publikacje fachowe
(1)
Dostępność
dostępne
(6)
wypożyczone
(3)
Placówka
Wypożyczalnia - ul. Prusa 3
(9)
Autor
Walczak Tomasz
(8)
Matuk Konrad
(4)
Lachowski Lech
(3)
Meryk Radosław
(3)
Bombik Wojciech
(2)
Grażyński Andrzej
(2)
Grolemund Garrett
(2)
Grus Joel
(2)
Górczyński Robert
(2)
Kamiński Filip
(2)
Massaron Luca
(2)
McKinney Wes
(2)
Pilch Piotr
(2)
Szeliga Marcin
(2)
Wickham Hadley
(2)
Barth Antje
(1)
Beaulieu Alan
(1)
Boschetti Alberto
(1)
Bruce Andrew
(1)
Bruce Peter
(1)
Błaszczyk Beata
(1)
Cetnarowski Michał (1980- )
(1)
Chen Daniel Y
(1)
Chrąchol-Barczyk Urszula
(1)
Cieślak Piotr
(1)
Criado Perez Caroline (1984- )
(1)
Criado-Perez Caroline (1984- )
(1)
Damji Jules S
(1)
Danch-Wierzchowska Marta
(1)
Darwin Ian F
(1)
Das Tathagata
(1)
Deckler Greg
(1)
Dehghani Zhamak
(1)
Deitel Harvey
(1)
Deitel Paul J
(1)
Densmore James
(1)
Foreman John W
(1)
Fregly Chris
(1)
Gedeck Peter
(1)
Gnatkovsʹka Ìrina
(1)
Goldmeier Jordan
(1)
Gorelik Alex
(1)
Gutman Alex J
(1)
Górczyńska Agnieszka
(1)
Harrison Guy
(1)
Housley Matt
(1)
Hyman Jack
(1)
Jurney Russell
(1)
Kaiser Brittany (1986- )
(1)
Kosarzycki Radosław
(1)
Kotarba Anna
(1)
Lazzeri Francesca
(1)
Lee Denny
(1)
Marz Nathan
(1)
Mazurek-Łopacińska Krystyna
(1)
Mueller John Paul
(1)
Natingga David
(1)
Nielsen Aileen
(1)
Nolis Jacqueline
(1)
O'Neil Cathy
(1)
Pelikant Adam
(1)
Pinker Steven (1954- )
(1)
Pluta Paweł
(1)
Rajca Piotr
(1)
Reis Joe
(1)
Robinson Emily
(1)
Rymarczyk Tomasz
(1)
Sak Anna
(1)
Sawka Krzysztof
(1)
Skeet Jon
(1)
Sobocińska Magdalena
(1)
Stephens-Davidowitz Seth
(1)
Stephenson David
(1)
Sumpter David
(1)
Surma Jerzy
(1)
Szeremiota Przemysław
(1)
Szymański Piotr
(1)
Tanimura Cathy
(1)
VanderPlas Jake
(1)
Ward Bob
(1)
Warren James
(1)
Watrak Andrzej
(1)
Wenig Brooke
(1)
Werner Grzegorz
(1)
White Tom
(1)
Zaczyński Bartosz
(1)
Zavarella Luca
(1)
Zawiła Anna
(1)
Zawiła Tadeusz
(1)
Zieliński Marcin Z
(1)
Çetinkaya-Rundel Mine
(1)
Świerkocki Maciej (1961- )
(1)
Żero Oleg
(1)
Żulicki Remigiusz
(1)
Rok wydania
2020 - 2024
(36)
2010 - 2019
(21)
Okres powstania dzieła
2001-
(9)
Kraj wydania
Polska
(56)
Ukraina
(1)
Język
polski
(56)
ukraiński
(1)
Odbiorca
Informatycy
(1)
Przynależność kulturowa
Literatura angielska
(2)
Literatura amerykańska
(1)
Literatura polska
(1)
Temat
Big data
(9)
Dane osobowe
(3)
Data mining
(3)
Feminizm
(2)
Internet
(2)
Klęski elementarne
(2)
Kobieta
(2)
Mężczyzna
(2)
Przetwarzanie danych
(2)
Rola społeczna
(2)
Rzeczywistość wirtualna
(2)
Seksism
(2)
Sfera publiczna
(2)
Stereotyp
(2)
Sztuczna inteligencja
(2)
Algorytmy
(1)
Bezpieczeństwo informacyjne
(1)
Brexit
(1)
Cambridge Analytica
(1)
Cyberkultura
(1)
Cyberprzestępczość
(1)
Człowiek
(1)
Demokracja
(1)
Facebook
(1)
Informatyzacja
(1)
Internauci
(1)
Kampania wyborcza
(1)
Komunikacja polityczna
(1)
Kryzys
(1)
Loty kosmiczne
(1)
Modele matematyczne
(1)
Nierówności społeczne
(1)
Portal społecznościowy
(1)
Praca
(1)
Prawo do prywatności
(1)
Profilowanie danych osobowych
(1)
R (informatyka)
(1)
Społeczeństwo informacyjne
(1)
Statystyka
(1)
Uczenie się maszyn
(1)
Temat: czas
2001-
(4)
Temat: miejsce
Stany Zjednoczone (USA)
(1)
Warszawa (woj. mazowieckie)
(1)
Gatunek
Opracowanie
(4)
Esej
(2)
Podręcznik
(1)
Powieść
(1)
Publicystyka
(1)
Science fiction
(1)
Dziedzina i ujęcie
Informatyka i technologie informacyjne
(6)
Socjologia i społeczeństwo
(6)
Gospodarka, ekonomia, finanse
(1)
Matematyka
(1)
Polityka, politologia, administracja publiczna
(1)
57 wyników Filtruj
Książka
W koszyku
Data science i uczenie maszynowe / Marcin Szeliga. - Wydanie 1. - Warszawa : PWN, 2017. - XXVI, 371 stron : ilustracje, wykresy ; 24 cm.
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia - ul. Prusa 3
Są egzemplarze dostępne do wypożyczenia: sygn. 168737 (1 egz.)
Książka
W koszyku
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia - ul. Prusa 3
Wszystkie egzemplarze są obecnie wypożyczone: sygn. 181304 (1 egz.)
Książka
W koszyku
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia - ul. Prusa 3
Wszystkie egzemplarze są obecnie wypożyczone: sygn. B - 189672 (1 egz.)
Książka
W koszyku
Невидимі жінки : як вижити у світі, де навіть цифри брешутьна користь чоловіків / Керолайн Кріадо Перес ; [переклад з англійської Ірини Гнатковської].
(Serìâ "Bìznes")
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia - ul. Prusa 3
Wszystkie egzemplarze są obecnie wypożyczone: sygn. B - 8 (1 egz.)
Brak okładki
Książka
W koszyku
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia - ul. Prusa 3
Są egzemplarze dostępne do wypożyczenia: sygn. 172322 (1 egz.)
Książka
W koszyku
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia - ul. Prusa 3
Są egzemplarze dostępne do wypożyczenia: sygn. 179497 (1 egz.)
Książka
W koszyku
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia - ul. Prusa 3
Są egzemplarze dostępne do wypożyczenia: sygn. 179355 (1 egz.)
Książka
W koszyku
1 placówka posiada w zbiorach tę pozycję. Rozwiń informację, by zobaczyć szczegóły.
Wypożyczalnia - ul. Prusa 3
Są egzemplarze dostępne do wypożyczenia: sygn. 169434 (1 egz.)
E-book
W koszyku

Książka stanowi doskonałe narzędzie zarówno dla firm chcących stworzyć własny program lojalnościowy, jak i dla tych, którzy już program posiadają. Dzięki zaprezentowanym case study można dostrzec trendy i rozwiązania, jakie współcześnie oferują programy lojalnościowe swoim uczestnikom. Wśród przeanalizowanych przykładów znajdują się programy nagradzane w ogólnopolskich konkursach zarówno w obszarze B2B, jak i B2C. Książka zawiera także rozważania teoretyczne dotyczące omawianego pojęcia oraz wskazuje na decyzje, które należy podjąć, tworząc program lojalnościowy.

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Autor
Forma i typ

Nabierz prędkości dzięki przełomowym zmianom w SQL Server 2019. Nie jest to już jedynie silnik bazodanowy, ale nowatorskie narzędzie wyposażone we wsparcie dla uczenia maszynowego, analiz Big Data, możliwość działania w systemie Linux, kontenery, Kubernetes, Javę czy wirtualizację danych w Azure. Ta książka nie zajmuje się tradycyjną administracją bazami danych w środowisku SQL Server. Koncentruje się na tym wszystkim, co nowe w jednej z najskuteczniej modernizowanych platform danych w branży. To książka dla profesjonalistów danych, którzy znają już podstawy SQL Server i chcą się rozwijać, rozbudowując umiejętności w najgorętszych obszarach nowych technologii.

Zagłębimy się w szczegóły kluczowych nowych możliwości SQL Server 2019 przy użyciu podejścia „nauka przez przykład”. Zajmiemy się zagadnieniami Intelligent Performance, zabezpieczeń, dostępności i funkcjonalności oczekiwanych przez współczesnych programistów. Omówimy usprawnienia w SQL Server 2019 dla systemu Linux oraz wykorzystanie kontenerów i klastrów Kubernetes. Pokażemy, jak zwirtualizować dostęp do danych przy użyciu Polybase dla Oracle, MongoDB, Hadoop i Azure, co pozwala zredukować potrzebę stosowania kosztownych aplikacji ETL. Nauczymy się również, jak budować wszechstronne rozwiązania Big Data Clusters, sztandarowej funkcjonalności wydania 2019, zapewniającej dostęp do środowisk Spark, SQL Server HDFS i dowiemy się, jak wbudować inteligencję w nasze własne dane i wdrażać kompletne aplikacje uczenia maszynowego.

Dowiedz się, jak:

• Implementować Big Data Clusters przy użyciu SQL Server, Spark i HDFS

• Tworzyć węzły danych z połączeniami do Oracle, Azure, Hadoop i innych źródeł

• Łączyć SQL i Spark w celu zbudowania platformy uczenia maszynowego dla aplikacji AI

• Zwiększyć wydajność bez zmieniania aplikacji przy użyciu Intelligent Performance

• Podnieść zabezpieczenia SQL Server dzięki mechanizmom Secure Enclaves i Data Classification

• Zmaksymalizować czas działania bazy danych poprzez indeksowanie online i Accelerated Database Recovery

• Budować nowoczesne aplikacje przy użyciu narzędzi Graph, ML Services i T-SQL Extensibility dla języka Java

• Zwiększyć możliwości wdrażania SQL Server w systemie Linux

• Uruchamiać SQL Server w kontenerach i Kubernetes

• Korzystać z najnowszych narzędzi i metod migracji bazy danych do SQL Server 2019

• Zastosować wiedzę na temat SQL Server 2019 w środowisku Azure

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Forma i typ

Obierz kurs na... sprawną pracę z danymi w świecie Big Data

Rola danych stale rośnie. Dziś są one nowym złotem, najcenniejszym zasobem, zdolność do ich kolekcjonowania, przetwarzania i eksplorowania zgodnie z zapotrzebowaniem zaś cenną umiejętnością. Tym cenniejszą, że dostęp do nich stanowi warunek rozwoju sztucznej inteligencji, czyli najgorętszej dziś dziedziny IT. Wszak modele SI są trenowane dzięki karmieniu systemu ogromnymi wolumenami danych. Nie byłoby to możliwe bez zastosowania odpowiednich, przeznaczonych do pracy z danymi narzędzi. Jednym z najciekawszych jest Apache NiFi – opracowane przez Apache Software Foundation, przeznaczone do automatyzacji przepływu danych między systemami oprogramowania. Oferuje ono o wiele więcej niż tradycyjne systemy ETL (ang. extract, transform and load).

Myślisz o pobieraniu danych z różnych źródeł i chcesz to robić w prosty sposób – korzystając z metody „przeciągnij i upuść”? Chcesz wyzwalać procesy według harmonogramu? Zamierzasz wykrywać nowe dane oprogramowaniem typu open source, bez kosztownych licencji? W takim razie ten kurs, poświęcony Apache NiFi, jest dla Ciebie. Oprogramowanie, o którym mowa, pozwoli Ci pobierać pliki o różnych formatach (jak CSV, JSON, XML, AVRO, ORC) z rozmaitych magazynów danych (na przykład HDFS, Amazon S3, Google Cloud Storage) w bardzo prosty sposób. Wystarczy, że przeciągniesz odpowiednie komponenty, a połączenie różnych systemów i przesyłanie danych między nimi z wykorzystaniem przykładowo baz danych, takich jak PostgreSQL, Oracle, SQL Server, MongoDB, Apache Cassandra czy nawet serwisy sieciowe i strumienie danych typu MQTT, JMS, Kafka, stanie się dziecinnie proste. Podobnie jak pobieranie i dystrybucja e-maili według treści. A to dopiero początek możliwości Apache NiFi.

Chcesz poznać je wszystkie? Zapraszamy do wzięcia udziału w naszym kursie!

Co Cię czeka podczas naszego profesjonalnego szkolenia

W ramach kursu między innymi:

  • Dowiesz się, jak zainstalować i skonfigurować Apache NiFi
  • Nauczysz się używać tego narzędzia do pobierania i przetwarzania danych z różnych źródeł
  • Będziesz analizować, testować i debugować procesy NiFi, a także tworzyć połączenia między poszczególnymi grupami procesów
  • Poznasz sposób konfiguracji Apache NiFi Registry
  • Zmonitorujesz wytworzone procesy i środowisko
  • Przygotujesz prostą obsługę błędów procesów
  • Stworzysz procesy wykorzystujące przetwarzanie warunkowe

Apache NiFi. Kurs video. Automatyzacja przepływu danych i narzędzia Big Data jest przeznaczony dla początkujących słuchaczy. Po ukończeniu szkolenia będziesz w stanie samodzielnie pracować z Apache NiFi i dalej rozwijać zdobyte w trakcie nauki umiejętności.

Apache NiFi

Oprogramowanie to zostało stworzone przez National Security Agency (NSA) w USA i pierwotnie nazywało się NiagaraFiles. Projekt został przekazany do Apache Software Foundation w 2014 roku. Jeśli chodzi o graficzny software użytkownika, Apache NiFi jest jednym z nielicznych narzędzi, które służą do budowy przepływu danych i przy tym oferują pełne wizualne środowisko, a budowę przypływu pozwalają zrealizować za pomocą metody „przeciągnij i upuść”, z konfiguracją jedynie parametrów gotowych procesorów, takich jak adres bazy danych czy adres URL serwisu. Ułatwia to użytkownikom tworzenie złożonych przepływów danych i zarządzanie tym procesem. Bogaty ekosystem Apache NiFi ma w obecnej chwili 345 gotowych do użycia wbudowanych procesorów, które umożliwiają połączenie z niemal wszystkimi popularnymi systemami. Sama lista procesorów jest sukcesywnie rozwijana – wraz z nowymi wersjami, wydawanymi zwykle co kilka miesięcy.

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Forma i typ

Czy sztuczna inteligencja pozbawia nas pracy? Algorytmy przejmują władzę nad światem? Czy big data sprawia, że jesteśmy bezustannie inwigilowani, a ogromna ilość danych zastępuje ekspertów i naukowców? Cokolwiek sądzimy na te tematy, jedno jest pewne - istnieje heterogeniczne środowisko ludzi zajmujących się tzw. "sztuczną inteligencją" czy tzw. "big data" od strony technicznej oraz metodologicznej. Pole ich działania nazywane jest data science, a oni - data scientists.

Publikacja to pierwsza monografia socjologiczna dotycząca data science i pierwsza praca w naukach społecznych, w której data science zostało zbadane jako społeczny świat w rozumieniu Adele E. Clarke. Podejście to pozwala spojrzeć na data science, nazwane dekadę wstecz w "Harvard Business Review" "najseksowniejszym zawodem XXI wieku", zarówno z perspektywy jego uczestników, jak i z lotu ptaka, w relacji do akademii, biznesu, prawa, mediów czy polityki.

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Forma i typ

Idea hurtowni danych ściśle wiąże się z ich kolosalnymi ilościami, gromadzonymi podczas tysięcy różnych sytuacji - przy dowolnej transakcji, w urzędzie, na lotnisku, w internecie... Nawet nasze połączenia telefoniczne są przechowywane przez operatora. Te wszystkie dane trzeba gdzieś pomieścić, sensownie posegregować i zapewnić sobie możliwość sięgnięcia do wybranego ich zakresu bez długotrwałych poszukiwań. Taką możliwość dają właśnie hurtownie danych - przemyślane, bardzo pojemne bazy, oferujące zarówno integrację wprowadzanych danych, jak i znakomite mechanizmy ich przeszukiwania. Jeśli chcesz poszerzyć swoją wiedzę na temat tworzenia i przeglądania zawartości hurtowni danych, trafiłeś pod właściwy adres!

Książka Hurtownie danych. Od przetwarzania analitycznego do raportowania zawiera materiał przeznaczony nie tylko dla studentów wydziałów informatycznych, ale także dla pasjonatów tej tematyki oraz specjalistów zainteresowanych poszerzeniem wiedzy. W możliwie najprostszy, praktyczny sposób opisano w niej składnię i postać zapytań analitycznych, strukturę hurtowni danych oraz kwestię ich integracji i wizualnego tworzenia elementów hurtowni. Znajdziesz tu także omówienie analizy danych z wykorzystaniem rozszerzenia MDX SQL oraz zastosowań raportowania. Zapoznanie się z tymi informacjami oraz prześledzenie zgromadzonych tu przykładów pozwoli Ci zrozumieć problemy powstające przy budowie hurtowni danych i wykorzystać tę wiedzę we własnych projektach.

  • Zapytania analityczne
  • Struktura hurtowni danych
  • Integracja danych
  • Wizualne tworzenie elementów hurtowni danych
  • Analiza danych z wykorzystaniem rozszerzenia MDX SQL
  • Raportowanie
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Język SQL został stworzony jako narzędzie do przetwarzania danych. Mimo że zwykle jest używany do pracy z bazami danych, jego możliwości są o wiele większe. Poprawny kod SQL ułatwia przetwarzanie potężnych zbiorów danych z dużą szybkością. Szczególnie obiecującą perspektywą jest zastosowanie języka SQL na wielkich zbiorach danych przechowywanych w chmurze. Dzięki nieco bardziej złożonym konstrukcjom SQL analityk danych może z dużą efektywnością wydobywać z nich wiedzę.

Ta praktyczna książka jest przeznaczona dla analityków danych i danologów, którzy chcą używać SQL-a do eksploracji dużych zbiorów danych. Pokazuje zarówno popularne, jak i nieco mniej znane techniki budowania zapytań SQL, dzięki czemu możliwe staje się rozwiązywanie nawet bardzo zawiłych problemów i optymalne wykorzystanie właściwości tego języka w pracy na danych. W nowy, innowacyjny sposób przedstawiono tu takie pojęcia jak złączenia, funkcje okna, podzapytania i wyrażenia regularne. Zademonstrowano, jak łączyć różne techniki, aby szybciej osiągać cele za pomocą łatwego do zrozumienia, czytelnego kodu. Opisywany materiał został zilustrowany licznymi przykładami zapytań SQL, dzięki czemu można płynnie przejść do rozwiązywania konkretnych problemów z zakresu przetwarzania, analizy i eksploracji danych.

Najciekawsze zagadnienia:

  • przygotowywanie danych do analizy
  • analizy szeregów czasowych z wykorzystaniem SQL
  • analizy kohortowe do badania zachodzących zmian
  • analiza tekstu za pomocą zaawansowanych funkcji i operatorów SQL
  • wykrywanie odstających wartości
  • analizy eksperymentów (testy A/B)

SQL: tak wyciągniesz z danych rzetelne wnioski!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku
Forma i typ

Monografia przedstawia szeroki zakres dziedzin, w których znajduje zastosowanie tomografia. W nowatorski sposób prezentuje ważne zagadnienia z zakresu rozwiązywania problemów odwrotnych w tomografii przemysłowej oraz prototypów, pomiarów i modeli układów złożonych. Rozważania i dogłębna analiza numeryczna zastosowana na potrzeby rozwiązania problemu naprzód i odwrotnego czynią tę pracę wyjątkową w skali krajowej i międzynarodowej. Autor wniósł znaczący wkład w rozwój naukowej dyscypliny: Informatyka w aspekcie praktycznych zastosowań, zarówno przemysłowych, jak i medycznych. Używał tomografii procesowej do badania bardzo dużych obiektów. Obiekty te to wielohektarowe obszary położone w znacznej odległości od siebie. To innowacyjne zastosowanie tomografii procesowej

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Musisz spojrzeć prawdzie w oczy: epoka danych to nie tylko imponujące możliwości, ale również obietnice bez pokrycia. Firmy wdrażają rozwiązania, które mają je wyręczać w podejmowaniu decyzji. Menedżerowie zatrudniają analityków, którzy nimi nie są. Specjaliści w dziedzinie data science są zatrudniani w organizacjach, które nie są na nich gotowe. Dyrektorzy wysłuchują technicznego żargonu i udają, że go rozumieją. Efekt? Pieniądze idą w błoto.

Oto praktyczny przewodnik po nauce o danych w miejscu pracy. Dowiesz się stąd wszystkiego, co ważne na początku Twojej drogi jako danologa: od osobowości, z którymi przyjdzie Ci pracować, przez detale analizy danych, po matematykę stojącą za algorytmami i uczeniem maszynowym. Nauczysz się myśleć krytycznie o danych i otrzymanych wynikach, będziesz też inteligentnie o tym mówić. Jednym zdaniem: zrozumiesz dane i związane z nimi wyzwania na głębszym, profesjonalnym poziomie.

To książka dla każdego, kto chce przestawić firmę na tory data science.

Eric Weber, kierownik ds. eksperymentów i badań metrycznych, Yelp

Naucz się:

  • myśleć statystycznie i rozumieć rolę zmienności w podejmowaniu decyzji
  • zadawać właściwe pytania na temat statystyk i wyników analiz
  • sensownie korzystać z rozwiązań uczenia maszynowego i sztucznej inteligencji
  • unikać typowych błędów podczas pracy z danymi i ich interpretowania

Data science? Odsiejesz piasek od złota!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Data science jest interdyscyplinarną dziedziną naukową łączącą osiągnięcia uczenia maszynowego, statystyki i eksploracji danych. Umożliwia wydobywanie nowej wiedzy z istniejących danych poprzez stosowanie odpowiednich algorytmów i analizy statystycznej. Stworzono dotąd wiele algorytmów tej kategorii i wciąż powstają nowe. Stanowią one podstawę konstruowania modeli umożliwiających wyodrębnianie określonych informacji z danych odzwierciedlających zjawiska zachodzące w świecie rzeczywistym, pozwalają też na formułowanie prognoz ich przebiegu w przyszłości. Algorytmy data science są postrzegane jako ogromna szansa na zdobycie przewagi konkurencyjnej, a ich znaczenie stale rośnie.

Ta książka jest zwięzłym przewodnikiem po algorytmach uczenia maszynowego. Jej cel jest prosty: w ciągu siedmiu dni masz opanować solidne podstawy siedmiu najważniejszych dla uczenia maszynowego algorytmów. Opisom poszczególnych algorytmów towarzyszą przykłady ich implementacji w języku Python, a praktyczne ćwiczenia, które znajdziesz na końcu każdego rozdziału, ułatwią Ci lepsze zrozumienie omawianych zagadnień. Co więcej, dzięki książce nauczysz się właściwie identyfikować problemy z zakresu data science. W konsekwencji dobieranie odpowiednich metod i narzędzi do ich rozwiązywania okaże się dużo łatwiejsze.

W tej książce:

  • efektywne implementacje algorytmów uczenia maszynowego w języku Python
  • klasyfikacja danych przy użyciu twierdzenia Bayesa, drzew decyzyjnych i lasów losowych
  • podział danych na klastery za pomocą algorytmu k-średnich
  • stosowanie analizy regresji w parametryzacji modeli przewidywań
  • analiza szeregów czasowych pod kątem trendów i sezonowości danych

Algorytmy data science: poznaj, zrozum, zastosuj!

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Aby w pełni wykorzystać potencjał danych i przekształcać je w wartościową wiedzę, musisz się posługiwać odpowiednimi narzędziami. Szczególnie przyda Ci się znajomość języka R, który pozwala na efektywne wykonywanie zadań, od importowania surowych danych po komunikowanie uzyskanych wyników w zrozumiały sposób.

Oto drugie, zaktualizowane wydanie znakomitego przewodnika dla analityków danych. Dzięki niemu dowiesz się, w jaki sposób używać języka R do importowania, przekształcania i wizualizowania danych, a także do przekazywania uzyskanych wyników analizy. Nauczysz się też rozwiązywać najczęściej występujące problemy, a liczne ćwiczenia ułatwią Ci utrwalenie zdobytej wiedzy. Omówiono tu najnowsze funkcje języka i najlepsze praktyki w data science. Zaprezentowano również zasady korzystania z wielu bibliotek języka R, na przykład tidyverse, służącej do pobierania informacji z różnych źródeł.

Dzięki tej książce nauczysz się:

  • wizualizować, czyli tworzyć wykresy na potrzeby eksploracji danych
  • przekształcać, czyli pracować z różnymi typami zmiennych
  • importować, czyli pobierać dane w formie wygodnej do analizy
  • programować, czyli rozwiązywać problemy z danymi za pomocą języka R
  • przekazywać informacje, czyli pracować z użyciem Quarto

To zaskakująco dobra aktualizacja światowej klasy przewodnika po danologii z użyciem języka R!

Emma Rand, University of York

Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
E-book
W koszyku

Programiści lubią Pythona. Ujmuje ich wyrazistość, zwięzłość i interaktywność kodu, a także bogata kolekcja narzędzi i bibliotek. Zalety te są uzupełniane przez rozwój innych technologii, zwiększającą się dostępność coraz szybszego sprzętu oraz rosnącą przepustowość internetu. Z kolei to wszystko wiąże się z powstawaniem niewyobrażalnych ilości danych, które trzeba magazynować i efektywnie przetwarzać. Większość innowacji w świecie informatyki koncentruje się wokół danych. A z tymi zadaniami można sobie poradzić dzięki imponującym możliwościom Pythona i jego bibliotek.

Ta książka ułatwi naukę Pythona metodą analizy i eksperymentów. Zawiera ponad 500 przykładów faktycznie wykorzystywanego kodu - od krótkich bloków po kompletne studia przypadków. Pokazano, w jaki sposób można kodować w interpreterze IPython i notatnikach Jupytera. Znalazł się tu obszerny opis Pythona oraz jego instrukcji sterujących i funkcji, omówiono pracę na plikach, kwestie serializacji w notacji JSON i obsługę wyjątków. Zaprezentowano różne paradygmaty programowania: proceduralnego, w stylu funkcyjnym i zorientowanego obiektowo. Sporo miejsca poświęcono bibliotekom: standardowej bibliotece Pythona i bibliotekom data science do realizacji złożonych zadań przy minimalnym udziale kodowania. Nie zabrakło wprowadzenia do takich zagadnień data science jak sztuczna inteligencja, symulacje, animacje czy przygotowanie danych do analizy.

W książce między innymi:

  • przetwarzanie języka naturalnego
  • IBM
  • stosowanie bibliotek scikit-learn i Keras
  • big data, Hadoop(R), Spark™, NoSQL i usługi chmurowe
  • programowanie dla internetu rzeczy (IoT)
  • biblioteki: standardowa, NumPy, Pandas, SciPy, NLTK, YexyBlob, Tweepy, Matplotlib i inne
Ta pozycja jest dostępna przez Internet. Rozwiń informację, by zobaczyć szczegóły.
Dostęp do treści elektronicznej wymaga posiadania kodu dostępu, który można odebrać w bibliotece.
Pozycja została dodana do koszyka. Jeśli nie wiesz, do czego służy koszyk, kliknij tutaj, aby poznać szczegóły.
Nie pokazuj tego więcej