Stan książek
Nasze książki są dokładnie sprawdzone i jasno określamy stan każdej z nich.
Nowa
Książka nowa.
Używany - jak nowa
Niezauważalne lub prawie niezauważalne ślady używania. Książkę ciężko odróżnić od nowej pozycji.
Używany - dobry
Normalne ślady używania wynikające z kartkowania podczas czytania, brak większych uszkodzeń lub zagięć.
Używany - widoczne ślady użytkowania
zagięte rogi, przyniszczona okładka, książka posiada wszystkie strony.
Ekstrakcja danych z językiem Python. Pozyskiwanie danych z internetu
Masz tę lub inne książki?
Sprzedaj je u nas
Ekstrakcja danych, znana również jako web scraping, często uważana jest za jedną z bardziej skomplikowanych dziedzin informatyki. Dzięki niej możliwe jest szybkie pozyskiwanie dużych ilości informacji z internetu, co może być wykorzystywane na wiele sposobów. Jednakże wokół tej tematyki narosło wiele nieporozumień, szczególnie w kwestiach prawnych i technicznych. Często pojawiają się pytania dotyczące zgodności z prawem takich praktyk czy efektywności dostępnych narzędzi. Proces ekstrakcji danych obejmuje różnorodne techniki, jak analiza danych, przetwarzanie języka naturalnego oraz zabezpieczanie informacji, co wymaga solidnego zrozumienia ich działania.
Ta książka to doskonałe wprowadzenie do świata pozyskiwania danych internetowych. Prezentuje zasady zbierania, przetwarzania i użytkowania danych z różnych źródeł. Autor szczegółowo omawia kwestie związane z bazami danych, serwerami, protokołem HTTP, językiem HTML, bezpieczeństwem sieciowym, przetwarzaniem obrazów i analizą danych w kontekście ekstrakcji. Programy ilustrujące omawiane zagadnienia napisano w Pythonie, a także przedstawiono użyteczne biblioteki dla twórców robotów indeksujących. Dzięki tej książce możesz szybko nauczyć się, jak wydobywać i stosować dane na różnorodne sposoby. Obecnie te rozwiązania są wykorzystywane w prognozowaniu rynkowym, tłumaczeniu maszynowym czy nawet diagnostyce medycznej.
Kluczowe tematy obejmują korzystanie z platformy Scrapy do budowy robotów, sposoby odczytu, pozyskiwania i przechowywania danych, oczyszczanie i normalizację danych, a także wykorzystanie interfejsów API. Poruszane są również kwestie przetwarzania obrazów na tekst i testowania witryn przy użyciu robotów.
Ryan Mitchell, autorka książki, pracuje jako starszy inżynier oprogramowania w HedgeServ (Boston) i jest odpowiedzialna za rozwój korporacyjnych interfejsów API oraz narzędzi do analizy danych. Ukończyła Olin College of Engineering i Harvard University Extension School, zdobywając tytuł magistra inżynierii oprogramowania. Przed rozpoczęciem pracy w HedgeServ zajmowała się tworzeniem narzędzi automatyzujących i robotów indeksujących w firmie Abine. Pełniła również rolę konsultantki w zakresie ekstrakcji danych w sektorach detalicznym, finansowym oraz farmaceutycznym i była wykładowczynią na Uniwersytecie Północnozachodnim oraz Olin College of Engineering.
Wybierz stan zużycia:
WIĘCEJ O SKALI
Ekstrakcja danych, znana również jako web scraping, często uważana jest za jedną z bardziej skomplikowanych dziedzin informatyki. Dzięki niej możliwe jest szybkie pozyskiwanie dużych ilości informacji z internetu, co może być wykorzystywane na wiele sposobów. Jednakże wokół tej tematyki narosło wiele nieporozumień, szczególnie w kwestiach prawnych i technicznych. Często pojawiają się pytania dotyczące zgodności z prawem takich praktyk czy efektywności dostępnych narzędzi. Proces ekstrakcji danych obejmuje różnorodne techniki, jak analiza danych, przetwarzanie języka naturalnego oraz zabezpieczanie informacji, co wymaga solidnego zrozumienia ich działania.
Ta książka to doskonałe wprowadzenie do świata pozyskiwania danych internetowych. Prezentuje zasady zbierania, przetwarzania i użytkowania danych z różnych źródeł. Autor szczegółowo omawia kwestie związane z bazami danych, serwerami, protokołem HTTP, językiem HTML, bezpieczeństwem sieciowym, przetwarzaniem obrazów i analizą danych w kontekście ekstrakcji. Programy ilustrujące omawiane zagadnienia napisano w Pythonie, a także przedstawiono użyteczne biblioteki dla twórców robotów indeksujących. Dzięki tej książce możesz szybko nauczyć się, jak wydobywać i stosować dane na różnorodne sposoby. Obecnie te rozwiązania są wykorzystywane w prognozowaniu rynkowym, tłumaczeniu maszynowym czy nawet diagnostyce medycznej.
Kluczowe tematy obejmują korzystanie z platformy Scrapy do budowy robotów, sposoby odczytu, pozyskiwania i przechowywania danych, oczyszczanie i normalizację danych, a także wykorzystanie interfejsów API. Poruszane są również kwestie przetwarzania obrazów na tekst i testowania witryn przy użyciu robotów.
Ryan Mitchell, autorka książki, pracuje jako starszy inżynier oprogramowania w HedgeServ (Boston) i jest odpowiedzialna za rozwój korporacyjnych interfejsów API oraz narzędzi do analizy danych. Ukończyła Olin College of Engineering i Harvard University Extension School, zdobywając tytuł magistra inżynierii oprogramowania. Przed rozpoczęciem pracy w HedgeServ zajmowała się tworzeniem narzędzi automatyzujących i robotów indeksujących w firmie Abine. Pełniła również rolę konsultantki w zakresie ekstrakcji danych w sektorach detalicznym, finansowym oraz farmaceutycznym i była wykładowczynią na Uniwersytecie Północnozachodnim oraz Olin College of Engineering.
