Crawler save data databaseprojekty
I have a task to create a simple desktop application from biological databases based on a database that I have initially created, I have no idea at what level the database is made. I would need help with this project quickly because. the database is in SQL and the application does not matter, the most desirable one is in access, java In general, the project is not supposed to be complicated, it is supposed to be a desktop application in which it will be possible to search for information from a database. I just started the topic of astronomical observations, but I had a problem with the relationships between tables in this topic, so later I started a different topic, but it is In general, it doesn't matter which one, it's about the technical side of t...
Poszukujemy osoby zdolnej do zaprogramowania narzędzia, które umożliwi nam analizę i selekcję informacji na stronach www. Celem jest stworzenie zaawansowanej bazy danych, która pozwoli na efektywne sortowanie i filtrację stron według specyficznych parametrów, takich jak poziom aktywności użytkowników. Naszym priorytetem jest zgromadzenie i organizacja informacji w sposób umożliwiający łatwe zarządzanie i dostęp do danych.
Cześć, Szukam kogoś, kto będzie w stanie wykonać dla mnie stronę internetową od podstaw. Wytyczne: - strona w formie katalogu - każdy produkt będzie miał tytuł, opis, kilka zdjęć oraz kilka krótkich dodatkowych informacji - potrzebny crawler, który będzie pobierał automatycznie dane tekstowe oraz zdjęcia z innej strony - zarządzanie treścią z poziomu panelu administracyjnego
Poszukujemy oprogramowania pobierającego określone dane ze wskazanych stron web (określimy dokładnie wszystkie potrzebne dane), oraz zapisaniu ich do bazy danych. Baza danych będzie znajdywać się w chmurze AWS (RDS).Web scraper może działać jako serverless worker bądź jako skrypt odpalany na komputerze. Model danych w bazie danych musi być stworzony tak aby odczyt był prosty i szybki. Obecne wyżej wymieniona strona posiada zabezpieczenia przed web scrgapingiem.
Preferowana, ale nie wymagana platforma: C# .NET lub C Kompilacja + źródła Crawler będzie operował na wcześniej przygotowanych plikach. Logowanie na numer GG Wysyłanie wiadomości. Przepływ numerów między plikami: 'do wysłania' -> 'wysłano' Rotacja numerów wysyłających. Konfiguracja w pliku: - rotate: co ile wiadomości ma nastąpić przelogowanie - delay: co ile ma zostać wysłana kolejna wiadomość, wartość losowa z zakresu od-do Plik nadawców: kolumna numer-hasło Plik odbiorców: kolumna numerów Plik przetworzonych odbiorców: kolumna numerów Plik z treścią wiadomości Interfejs: Start/Stop
Zlecę przygotowanie dedykowanego crawlera do strony www. Crawler musi działać lokalnie pod Windowsem. Wymagania: Po uruchomieniu parser loguje się lub umożliwia ręczne zalogowanie do strony www - musi być crawlerem ekranowym. Następnie operator ręcznie wybiera kryteria i klika start - crawler zaczyna pracę. Crawler przechodzi na kolejne podstrony (są przyciski nawigacji) Możliwość ustawienia losowych interwałów pomiędzy kolejnymi pasrsowanymi stronami. Wczytanie listy zapytań - nazwy firmy - z pliku tekstowego.
Zlecę przygotowanie dedykowanego crawlera do strony www. Crawler musi działać lokalnie pod Windowsem. Wymagania: Po uruchomieniu parser loguje się lub umożliwia ręczne zalogowanie do strony www - musi być crawlerem ekranowym. Następnie operator ręcznie wybiera kryteria i klika start - crawler zaczyna pracę. Crawler przechodzi na kolejne podstrony (są przyciski nawigacji) Możliwość ustawienia losowych interwałów pomiędzy kolejnymi pasrsowanymi stronami. Wczytanie listy zapytań - nazwy firm lub domeny - z pliku tekstowego.
Szykamy osoby która podejmie się zrealizowania crawlera, który będzie scrapował dla nas kilka danych z : - Crawler powinien odwiedzić zadany przez nas region np. - wejść w każdą z kategorii jakie są dostępne w menu np. berbershop, fryzjers, kosmetyczka itd. - Odwiedzić wszystkie rekordy (salony) z listingu kategorii i zebrać dla nas dane: - Nr telefonu - Nazwa salonu Jeśli istnieje: - adres www profilu facebook - adres www profilu instagram - adres strony www zatem każdy rekord powinien zawierać min. 2 dane max 5 danych. Dane mogą być zapisane w bazie danych lub w pliku. Program powinien działać na serwerze, moze byc napisany w java, php lub nodejs
...Zalozenia logiki: * crawler dodaje oferty do bazy danych * crawler nie dubluje ofert - rozpoznaje juz dodane * crawler normalizuje dane z oferty w zakresie -- podzial administracyjny (wojewodztwo, powiat, gmina, miasto) -- adres -- typ nieruchomosci - dom/mieszkanie/dzialka (rolna, budowlana, lesna etc) -- typ ogloszenia (sprzedaz, wynajem) -- rodzaj ogloszenia (prywatne, posrednik) -- link do strony -- zdjecia -- data utworzenia ogloszenia -- Identyfikator ogloszenia -- cena -- powierzchnia -- dane dodatkowe (liczba pokoi, pieter) -- opis * crawler dotyczy 2 stron (slownie: dwóch stron) z ogloszeniami (strony do uzgodnienia podczas nawiazania kontaktu) * crawler wykrywa blokade stron lub blad serwera Zalozenia techniczne: * crawler...
Witam, poszukuje wykonawcy web crawlera ktory ma za zadanie monitorowac zapas produktow w dowolnych wyznaczonych przezemnie sklepach internetowych. Funkcje na ktorych mi zalezy to: 1)Praca w srodowisku windows server. 2) Mozliwosc wczytania adresow url z produktami z pliku 3) zapis wartosci stanu magazynowego w bazie danych 4) mozliwosc ustawienia czestotliwosci pobierania danych z tego samego sklepu np. raz na dzien, raz na godzine, 5) Kreowanie raportu z tego jak zmienial sie stan magazynowy danego produktu w jednostce czasu. 1 dzien, tydzien, itd. 6) mozliwosc zastosowania datacenter proxy i regulowana czestotliwosc rotacji ip
Zlecę przygotowanie dedykowanego crawlera do strony www. Crawler musi działać lokalnie pod WIndowsem. Wymagania: Po uruchomieniu parser loguje się lub umożliwia ręczne zalogowanie do strony www - musi być crawlerem ekranowym. Możliwość ustawienia losowych interwałów pomiędzy kolejnymi pasrsowanymi stronami. Wczytanie listy zapytań - nazwy firm lub domeny - z pliku tekstowego.
Witam, poszukuję osoby, która kompleksowo zajmie się front-endem dla platformy e-learningowej opartej o open edX. Do zrobienia min.: 1. Menu rozwijane po kliknięciu z dwoma poziomami, dane dostarczane w templacie z Django 2. Przycisk Save/Unsave, wysyłający POST albo DELETE do endpointa RESTowego 3. Wyświetlanie dynamicznej listy, możliwość dodawania nowych (dodatkowo, autocomplete oparty o RESTowy endpoint) lub usuwania starych, stworzenie formularza POST przy zapisie 4. Popup menu dla notyfikacji, ikona powiadomienia o nowych notyfikacjach (dane dostarczane w templacie z Django) 5. Integracja szaty graficznej 6. Responsywność strony, szczególnie pod kątem mobile Proszę o kontakt pod adresem @gmail.com. Pozdrawiam, Bartek
PDF Parser written in PHP (Yi2 project) User should be able to upload results of the race/sport event in pdf format, and the parser system should read the data from pdf and enable user to save only chosen columns to the database. Requirements 1. User can upload pdf file with sport results, pdf with multiple pages (links to samples below) 2. User should submit the file for processing (results are from multisport events, some results might have 10 columns some might have 15 columns, see the samples below) 3. Parser should process the file and retrieve only the table data (see the samples below) 4. User should view the output of the parsing on the web for further edits. 5. User should be able to decide the order of the columns (each sport results might have diffe...
...dalszą współpracę. Possible contact in English: Please, submit an offer for the application: a web browser with the option of changing the headers sent to the server. I want the application to pretend (simulate) any browser on any system (change of user agents, referer url, etc.). The application is to enable changing the browser information sent in the headers to the server. The browser is to save cookies as a regular browser. At , you can check the information sent by the browser, I want to be able to change it. At you can check more information that can be obtained from the browser, I would also like to change this information to any one before connecting to the server to download the website. Basic Functionality: a. Loading
Cześć mam zlecenie do wykonania, chodzi o crawler dla otodom
...poprawnie przycisk RUN zmienia kolor na zielony, po wciśnięciu jego tworzony jest plik tekstowy w formacie jak (2) i aplikacja jest zamknięta. W przypadku wciśnięci RUN kiedy nie jest zielony następuje sprawdzenie wszystkich kondycji i wyświetlenia na czerwono informacji o błędach i gdzie się znajduję. W przypadku uruchomienia w trybie Master możemy edytować ustawienia gdzie po wciśnięciu przycisku SAVE, ustawienia zapisywane są do XML. W trybie tym combobox dla usera umożliwia wprowadzenie Użytkownika z klawiatury i po wciśnięciu add user zapisanie go do CSV Co do okna miniplan to domyslnie jest Full, ale jezeli w podkatalogu w programie znajdują się jakieś pliki to pozwala na zaznaczenie Mini Plan i wyświetla ich liste w combobox, a jeżeli na tej liście znajduje się plik o...
...com/pl/stock-photo/woman-holding-a-white-piggy-bank/157219209 Klawiatura i kartoteka. Proste. Gdyby było po polsku, eh! Tblica, Kreda. Świnka. W przypadku pytań pozostaję do dyspozycji. ...
Poszukuje osoby do zarządzania projektem Projekt polega na sklonowaniu/pobranie przedmiotów opisów zdjęć z e-sklepów skatalogowaniu i zaimportowania do naszego sklepu na prestashop. Freelancer za rekrutowany będzie miał do wykonania następujący zakres prac: -Pozyskanie np. tutaj programisty który napiszę Web crawler dla jednej ze stron: -Pobranie kategorii/podkategori/przedmiotów, zdjęć, opisów, specyfikacji, marki, dodatkowych opcji i atrybutów oraz pdf jeśli istnieje do pliku .CSV -Postawienie sklepu na Prestashop, zakup szablonu, grafik i przygotowanie do funkcjonowania działalności sklepu łącznie ze stworzeniem menu kategorii oraz import przedmiotów z wcześniej przygotowanych .CSV
witam, potrzebuje prosty skrypt typu crawler-scraper, który wyciągnie określone dane ze stron. przykładowo na witrynie jest 100 stron, na każdej stronie tytuł serialu, nazwa odcinka i link. chciałbym, aby skrypt pobierał te dane z każdej ze 100 stron i zapisał do bazy danych.
Potrzebny mi crawler/scraper oparty na PHP, pozwalający wyszukiwać produkty spośród wybranych sklepów internetowych (Komputronik, , ProLine, NET-S) i pozwalać na synchroniczne zakupy (wspólny wirtualny koszyk dla wszystkich). Wyświetlanie produktów powinno być możliwe do edycji w oparciu o CSS. Potrzebna jest również możliwość filtrowania produktów (chodzi o części komputerowe) wg filtrów, używanych w tych sklepach.
Szukam osoby znającej VBA. Potrzebuję drobnej pomocy przy edycji kodu aktualnej aplikacji napisanej w Access. Dla znających VBA zajmie to około 30min.
I need a script that fill find particular PUBLIC facebook profiles by: Name of the profile (key string) Selected category of the profile then it will check if the profile has at least: GPS Location (address) then it will save it to the target records in the database: Name of the profile Profile picture GPS and address mail address phone number 4 last posts with pictures The script should also refresh the data from the saved profiles and save new posts in a given cycle. The approx profile count to scrape and refresh is 600 000 Zlecę wykonanie skryptu, który po określonym ciągu znaków ( nazwa profilu ) oraz nazwie przyporządkowanej kategorii profilu PUBLICZNEGO wyszuka wskazane profile na facebook, sprawdzi czy profil ma ...
Zlecę napisanie poniższej procedury w Visual Basic 2010 Express. Formatka z buttonami: nowy projekt otwórz projekt otwórz plik graficzny .jpg zapisz projekt wyślij dane do pliku pobierz dane z pliku oraz polem... Kliknięcie {nowy projekt} otwiera plik do zapisu i wysyłania danych do pliku Kliknięcie {otworz projekt} otwiera plik do odczytu i umożliwia pobieranie z niego rekordów danych wg nr ze zmiennej_porzadkowej i wyświetlanie w okienkach textbox pobieranie i wyświetlanie tych danych było by po kliknięciu buttona {pobierz dane z pliku} Program powinien korzystać z kontrolek openfiledialog i save oraz obsługiwać błędy związane z otwarciem plików i końcem pliku itd. Plik może być zbliżony do XML SQLite lub jakikolwiek innym wg wł...
Mam napisany web crawler, który tworzy bazę danych. Trzeba podłączyć go pod istniejącą stronę, aby zapełnią ją treścią. Strona jest napisana w Rubym, web crawler w nodejs. Wdrożyć całość na EC2
Mam napisany web crawler, który tworzy bazę danych. Trzeba podłączyć go pod istniejącą stronę, aby zapełnią ją treścią. Strona jest napisana w Rubym, web crawler w nodejs.
Ciągle pracuję nad wcześniejszym projektemPrestashop 1.411 - remove and modify database fields'
Witam, potrzebuję prostęgo parsera/crawlera stron internetowych, który: 1. Pobierze adres z danej mu listy serwisów internetowych i przejrzy wszystkie podstrony z danego adresu (kilka poziomów wgłąb, pozostając w jednej domenie). 2. Przeglądając podstrony wychwyci teksty pasujące do podanych razem z adresem wyrażeń regularnych (2- 3 wyrażenia). 3. Zapisze wyniki, np. w formie pliku CSV. 4. Po przejrzeniu podstron danego serwisu przejdzie do następnego serwisu z listy. Podsumowując, na wejściu mamy listę: [adres1], [wyrazenie reguralne 1], wyrazenie regularne 1] ... [adresX], [wyrazenie reguralne Xa], wyrazenie regularne Xb] A wynikiem prac jest lista plik w formacie: [podstrona 1 adresu 1], [test pasujący do wyrażenia 1], [tekst pasujący do wyrażenia 2...
Chciałbym zlecić napisanie programu, który działałby w sposób podobny do tego programu: Zależy mi żeby taki program mógł chodzić po stronach internetowych i zczytywać z nich linki do zewnętrznych stron. Przykład: chciałbym, żeby program podał mi listę wszystkich domen znajdujących się we wskazanym przeze mnie katalogu stron w sekcji 'medycyna'. Bardzo istotna jest tutaj możliwość zawężania crawlingu do określonych sekcji witryn. Można to zrobić np. po filtracji adresów url, które muszą zawierać np. jakiś ciąg znaków np 'medycyna'. Dodatkowo na samym końcu pracy program powinien w prosty sposób sprawdzać, czy dana domena istnieje, czy też nie. Może być to sprawdzane po nagłówkach. Nie ma potrzeby odpyty...
...clear), eraser, bucket fill, shapes (line, rectangle, oval), text input (font, size, rotate, move); 4. Images: overlays (PNGs), stencils (areas to pain on – PNGs), backgrounds (JPGs); 5. Background functions: auto load from watch folder, green screen, webcam live view, Instagram #tag photos; 6. Publication: email, facebook, ftp, print; 7. Misc: timer, image filters, image auto save, drawing process video save, sounds of using controllers, QR code integration (unique image naming and predefined URL uploading for future share), external monitor slideshow, settings export/import, each functionality enable/disable option. Zlecenie polega na przygotowaniu aplikacji graficznej w technologii Flash/Air (Flex/AS3). Okno aplikacji ma być wyświetlane rzutnikiem na ekra...
Witam serdecznie, Do napisania jest crawler ściągający i parsujący ogłoszenia z danego portalu. Jeśli współpraca będzie się dobrze układać osoba może liczyć na napisanie kolejnych crawlerów dla innych portali. Będzie ich tak 10-15 (?). Dokładny, a jednocześnie bardzo krótki i czytelny opis zadania znajduje się pod linkami: (polecam wkleić do notatnika z kolorowaną składnią)
Witam potzebuje aplikacje ktora pobierala by dane z ksiag wieczystych na podstawie listy nr ksiag oraz przechowywala dane w jakiejs tabeli dodatkowo aplikacja powinna miec zintegrowana obsluge Czy jest mozliwe wykonanie takiego zlecenia, jaka cena?
Witam serdecznie, Do napisania jest crawler ściągający i parsujący ogłoszenia z danego portalu. Jeśli współpraca będzie się dobrze układać osoba może liczyć na napisanie kolejnych crawlerów dla innych portali. Będzie ich tak 10-15 (?). Dokładny, a jednocześnie bardzo krótki i czytelny opis zadania znajduje się pod linkami: (polecam wkleić do notatnika z kolorowaną składnią)
Zlecę odtworzenie bazy danych (katalog części zamiennych na płycie DVD) np do MySQL. Baza danych na płycie tworzona jest dynamicznie (In-Memory-Database). Katalog części otwierany jest przez przeglądarkę internetową pod localhostem przez proces javaw.exe. Płacę za efekt.
Zlecę skrypt który uruchomiony pobierze z wybranych sklepów internetowych listę wszystkich produktów, a następnie z ich indywidualnych stron specyfikację każdego produktu i zebrane dane wgra do bazy MySQL, a obrazki do folderu "images". Skrypt będzie regularnie uruchamiany i w razie wykrycia zmiany ceny produktu ma ją aktualizować w bazie. Celem jest monitorowanie produktów pięciu z góry określonych sklepów internetowych. Tylko backend, zadnych widocznych elementów - chce po prostu te dane mieć w MySQL.
Poszukujemy programisty do skończenia projektu internetowej bazy danych. Projekt wymaga: - dokończenia funkcjonalnej części bazy danych / obliczeń i grafów - analizy i poprawy wydajności bazy danych - zoptymalizowania czasów i ilości odświeżeń / ładowań - zabezpieczenia strony - stworzenia systemu zarzadzania użytkownikami - dokończenia i zoptymalizowania interfejsu www - zoptymalizowania interfejsu www pod urządzenia mobilne Aktualnie strona / baza danych wykorzystuje następujące standardy / narzędzia: - php with framework symfony - google charts - html - java script - jquery - wordpress. Projekt jest ukończony w około 75% a prognozowana liczba godzin potrzebna do ukończenia to około 80 godzin. Poszukujemy osób dostępnych natychmiastowo. Pos...
1. Wykorzystaj 'date' do wyswietlania różnych komunikatów powitalnych w zależności czy aktualnie jest dzień roboczy czy świąteczny (dla uproszczenia: dzień tygodnia czy weekend). Uwaga: Porównywanie napisów wyświetlanych przez program 'date' (i inne programy) jest zależne od języka i lokalizacji. Sprawdź możliwość ustawienia zmiennych lokalizacji LC_* (np. LC_ALL=C) i ich wp...można użyć kalendarza, a dodatkowo, po wyszukaniu plików, wyświetlenie ich jako checklisty - podobnie do przykładu: zenity --list --checklist --column "Buy" --column "Item" TRUE Apples TRUE Oranges FALSE Pears FALSE Toothpaste i po zakończeniu przez OK - utworzyć archiwum z wybranych plików o podanej nazwie - tu też można użyć ...
Hi, I'm looking for person who would build an e-mail database of people working in one of the branches of professional services in Poland. Estimated maximum capacity of the database is 50.000 records but not as many may be availible through public databases and companies' websites. If you're interested, please let me know about your experience and estimated time of completion. Regards, TOST Design ----- Dzień dobry, szukam osoby, która zbuduje bazę emailingową pracowników jednej z branż usług profesjonalnych w Polsce. Rozmiar bazy szacuję na 50.000 rekordów, ale aż tyle może nie być dostępnych w innych bazach i na firmowych stronach internetowych. Jeśli jesteś zainteresowany, czekam na informacje o Twoim doświadczeniu i pr...
Poszukiwana osoba do wykonania projektu na temat crawlingu w pythonie 3.0 Projekt krótki, udostępniam materiały potrzebne w tworzeniu kodu.
Zlecę wykonanie projektu tj: -stworzenie kodu w języku python 3 (zagadnienie główne crawler zasobów) -objaśnienie go tj. funkcjonowanie Do projektu dołączam potrzebną literaturę w postaci pdfów. Wystarczy gotowe wzory przekształcić w kod. Nie ukrywam, że liczy się dla mnie cena, ale też skuteczność więc liczę na korzystny kompromis dla obu stron :)
PleskFatalException: Unable to connect to database: mysql_connect(): Connection refused () This is solution but i dont know SSH: Solution: First stop mysql service and Rename or delete current file and restart mysql service # /etc/init.d/mysqld stop # mv /var/lib/mysql/ /var/lib/mysql/ or other catalog name: # mv /var/lib/mysqld/ /var/lib/mysqld/ And then start mysql service # /etc/init.d/mysqld start Please help quickly, Contact: office @ -------------------------------------- Witam serdecznie, Potrzebuję osoby która w błyskawicznym tempie naprawi błąd połączeni z bazą danych na strony siedzącej na serwerze VPS na OVH. Cały ten gówniany PLESK również nie działa dlatego
Hello, If you are an expert in Zend, MySQL, PHP, CSS to write web-database please contact us. Mateusz Witam, Jeśli jesteś expertem bazodanowych stron internetowych z doskonałą znajomością ZEND, PHP 5.0, MySQL, CSS skontaktuj się z nami a wtedy dostaniesz komplet informacji co do zadania do wykonania. Mateusz
Hello, I am looking for some company that could sell me list of contacts (email, phone) of various Poland companies and websites. Please reply me to : pago2@ Thank you Jakub Glos
Cześć DO ZROBIENIA PLUGIN do Photoshopa CC Osobne okienko w PS (zobacz proszę - ) DZIAŁANIE Wyobraź sobie ;) że masz zaznaczone kilka (7) warstw w ps, następnie otwierasz nasz PLUGIN i nadajesz unikalną nazwę dla tych 7-iu zaznaczeń np. "H2" klikasz ADD / SAVE i na liscie pojawia się nazwa "H2". Następnie w niedalekiej przyszłości, gdy klikniesz w "H2" - 7 warstw w PS zaznaczy się (podświetli). Mozesz także przeciągnąć dodatkową warstwę (drag & drop) na "H2" - po tym manewrze H2 będzie zawierało 8 zaznaczeń. 1. Zapisywanie zaznaczeń warstw (layer) na osobną listę 2. Zaznaczanie warstw po wybraniu wcześniej zapisanej nazwy 3. Wyszukiwanie zapisanych zaznaczeń 4. Dodawanie warstw do zapisanych zaznaczeń poprzez drag & drop 5. Usuwani...
Szukamy osoby lub firmy, która wykona dla nas aplikacje deskotopową- crawlera, która: - pobiera dane on line ze specjalnego pliku wymiany ( do uzgodnienia) razem z konfiguracją - odwiedza adresy z pliku, pobiera o nich dane (size, status, whois, ip, treśc tagu title, description, keywords) - przesyła pobrane dane na serwer - odpowiednio skonfigurowany potrafi podążać dodatkowo za linkami wewnętrznymi ( w danej domenie ) - zdalnie konfigurowany potrafi sprawdzać dodatkowe parametry (wyrażenia regularne) np treść pierwszego tagu h1, - słucha poleceń , przedstawia się poprawnie - konfiguracja po stronie użytkownika: liczba jednoczesnych połączeń, limit transferu, autouruchamianie po starcie - współdziała uruchomiony na raz na wielu maszynach Technologia po stronie se...
Zlecę napisanie programu typu Web Crawler, który będzie mógł ściągać wiadomości oraz artykuły z jak największej ilości podstron z portali , , interia.pl. Dane powinny być podzielone na pliki tekstowe, których rozmiar nie będzie przekraczał 10MB. Idealnie jedno zdanie - jedna linia. Program powinien działać pod Ubuntu i nie powielać ściągniętych już danych, jak również powinien je ściągać co jakiś czas, tak aby nie zablokowano adresu IP.
Mam zaplanowane kolejne zadania związane z naszym poprzednim zleceniemExpo website with logo and database'
Przeznaczenie aplikacji Aplikacja ma służyć do konfiguracji urządzenia będącego kontrolerem MIDI. Urządzenie jest podłączane do komputera za poprzez port USB. W systemie Windows lub MAC OS widoczne jest jako port COM. W urządzeniu zastosowano układ USB firmy FTDI FT232B – przykłady aplikacji dostępne na stronie aplikacji: 1. Identyfikacja urządzenia podłączonego do portu poprzez odpytywanie istniejących portów COM (polecenie INFO opis w załączniku) lub identyfikacja po nazwie urządzenia (funkcja DLL opisane na stronie firmy FTDI) 2. Odczytanie, weryfikacja i zapis konfiguracji urządzenia poprzez port COM. 3. Możliwość zmiany konfiguracji i zapisania/odczytania do/z pliku (polecenia get, put, save opisane w załączniku)
Hi, I have a simple database system work to be completed ASAP. If you are good in MySQL database you can apply. I need products from a PDF document to be inserted into the database accurately an in time. I will send you a private message with the link and the database schema. New freelancers can also apply.
Hi, I have a simple database system work to be completed ASAP. If you are good in MySQL database you can apply. I need products from a PDF document to be inserted into the database accurately an in time. I will send you a private message with the link and the database schema. New freelancers can also apply.
Hi, I have a simple database system work to be completed ASAP. If you are good in MySQL database you can apply. I need products from a PDF document to be inserted into the database accurately an in time. I will send you a private message with the link and the database schema. New freelancers can also apply.