Исходник Парсер arizona-rp/map

alexsandr8433

Новичок
Автор темы
11
12
Приветствую, собсна ради эксперимента решил попробовать и вот что получилось
Python:
import requests
import unicodedata
from bs4 import BeautifulSoup
from selenium import webdriver
import pickle

def get_data_with_selenium(url):
    options = webdriver.ChromeOptions()
    options.add_argument(
        'user-agent=[B]добавить свой[/B]')
    options.add_argument('--disable-blink-features=AutomationControlled')
    options.add_argument('--headless')
    driver = webdriver.Chrome(executable_path=r"C:\Users\admin\PycharmProjects\pythonProject\chromedriver.exe",
                              options=options)
    try:
        driver.get(url=url)
        #pickle.dump(driver.get_cookies(), open('cookiesarp', 'wb'))
        for cookies in pickle.load(open('cookiesarp', 'rb')):
            driver.add_cookie(cookies)
        driver.refresh()
        with open('16.html', 'w', encoding='utf-8') as file:
            file.write(driver.page_source)
    except Exception as ex:
        print(ex)
    finally:
        driver.close()
        driver.quit()


def main():
    ss = int(input('Введите номер сервера '))
    print('Происходит обратока данных, ожидайте.')
    get_data_with_selenium('[URL='https://arizona-rp.com/map/%27+f']https://arizona-rp.com/map/'+f[/URL]'{ss}')
    with open('16.html', encoding='utf-8') as file:
        map = file.read()
    soup = BeautifulSoup(map, 'lxml')
    items = soup.find_all('div', class_='map-icon house-for-sale')
    for x in items:
        data_original_title = x['data-original-title']

        title_el = BeautifulSoup(data_original_title, 'lxml')
        print(title_el.get_text(strip=True, separator='\n'))
    input('Press enter to exit')


    #for sale in items:
        #sell.append({
            #'home': sale.find_all('div', class_='text-center')
       # })
    #print(sell)

if __name__=='__main__':
    main()
Можно доработать код, создать цикл while и сделать проверку на hash(), чтобы скрипт производил сбор инфы когда что то добавляется или удаляется со страницы.

Кстати, принимаю реквесты в ЛС с просьбами спарсить что нибудь.
 
Последнее редактирование:
  • Нравится
Реакции: Letovv и Scrix

#Kai-

Известный
705
292
Объясните, а какой смысл парсить их карту, когда она бесполезная максимально?
 

alexsandr8433

Новичок
Автор темы
11
12
Объясните, а какой смысл парсить их карту, когда она бесполезная максимально?
Во первых, код максимально универсальный. Во вторых это исходник, можно подключить это все на бота телеги, сделать проверку хеша и получать обновленную инфу о домах в госе 24/7. Для чего? может кому нибудь будет полезно.
 

AnUbiSa

Известный
363
145
я пытался сделать такое, проебал 5 часов, сгорел, удалил проект нахуй
 

Dark.

Известный
1,745
778
А можно ведь с форума парсить тему от сэма Мейсона со списком адм, и получать всегда актуальный админ чекер
 

#Kai-

Известный
705
292
В одном полезно, это те дома/бизы которые в гос сливают.
так их словить сразу нельзя, несколько часов лежат в госе, а там и через /findibiz(house) отображается все это время
А можно ведь с форума парсить тему от сэма Мейсона со списком адм, и получать всегда актуальный админ чекер
Нахуя тебе весь список админов, когда нужны только онлайн? Они не пробиваются через /id, парсишь все ники которые не пробиваются и все, весь список админов онлайн.
 

mofix78

Активный
245
39
А можно ведь с форума парсить тему от сэма Мейсона со списком адм, и получать всегда актуальный админ чекер
в этом нет смысла когда уже есть чекеры по /id
так их словить сразу нельзя, несколько часов лежат в госе, а там и через /findibiz(house) отображается все это время
для чекера чтоб время +- знать когда в гос слили
 

ГОХА | GoxaShow

В АРМИИ С 12.12,ЗАКАЗЫ НЕ ДЕЛАЮ,ТУПЫЕ ВОПРОСЫ-НАХУ
Проверенный
1,890
1,907
в этом нет смысла когда уже есть чекеры по /id
есть, щас, чтобы чекнуть всех онлайн, возьмем по максимуму, тоесть 1000 слотов, надо 1000*0.5(задержка от кика за флуд командами)= 500 секунд, когда можно: либо добавлять/обновлять список админов как нибудь