Войти

Показать полную графическую версию : Способ скачать пару сотен изображений


dretew
10-09-2017, 23:45
Есть сайт http://4book.org/. С него нужно скачать книгу, вернее изображения в формате .jpg. Когда-то задавал подобный вопрос, но там было проще. Там в адресе картинки менялась только цифра, и я просто мог выкачать все пикчи, используя Free Download Manger пакетом... Здесь же много цифр и букв меняется.
Начнем.
Страницы с картинками лежат по простым адресам - http://4book.org/uchebniki-ukraina/10-klass/470-anglijska-mova-10-klas-karp-yuk/unit-1-people-and-relationship/page-4, диапазон: page-4 - page-223.
Со ссылками на сами картинки все намного труднее. Для примера список ссылок на некоторые страницы:
4)(она же первая) - http://4book.org/photo/581c/65c3/eef8/884e/8401/4640/big_4.jpg
5) http://4book.org/photo/581c/65c3/eef8/884e/8401/4641/big_5.jpg
6) http://4book.org/photo/581c/65c3/eef8/884e/8401/4642/big_6.jpg
100) http://4book.org/photo/581c/66b2/eef8/884e/8401/467e/big_100.jpg
101) http://4book.org/photo/581c/66b2/eef8/884e/8401/467f/big_101.jpg
105) http://4book.org/photo/581c/66b3/eef8/884e/8401/4683/big_105.jpg
200) http://4book.org/photo/581c/67db/eef8/884e/8401/4693/big_200.jpg
223) http://4book.org/photo/581c/67df/eef8/884e/8401/46aa/big_223.jpg

Как и чем можно все это максимально просто и быстро выкачать? Чтоб получить на выходе 220 готовых картинок?
Спасибо;)

sergey_dsv
11-09-2017, 05:44
А не проще ли скачать все это на другом сайте, все и сразу?
Делов то на 10 минут.
Англійська мова 10 клас Карп'юк (http://dropmefiles.com/X0XPt)

Iska
11-09-2017, 06:05
Как и чем можно все это максимально просто и быстро выкачать? Чтоб получить на выходе 220 готовых картинок? »
«Максимально просто и быстро выкачать» можно, разумеется, скриптом. Удобнее всего будет использовать PowerShell.

В данном случае всё достаточно просто.

Берём начальный Url.
Загружаем по нему содержимое html-страницы.
Ищем внутри ссылку на искомое изображение.
Получаем имя результирующего файла.
Загружаем изображение и сохраняем в файл.
С той же страницы пробуем получить ссылки на следующую страницу. Если удалось получить (их две, берём любую) — повторяем с пункта 2). Если нет — мы закончили загрузку.

На PowerShell 5.0:
$sStartUrl = 'http://4book.org/uchebniki-ukraina/10-klass/470-anglijska-mova-10-klas-karp-yuk/unit-1-people-and-relationship/page-4'
$sPath2SaveFiles = 'C:\Мои проекты\0115'


$oUri = [System.Uri]$sStartUrl
$oSite = [System.Uri]$oUri.GetLeftPart([System.UriPartial]::Authority)

if(Test-Path -Path $sPath2SaveFiles -PathType Container) {
Do {
Write-Host $oUri.AbsoluteUri -ForegroundColor Yellow

$oHttpContent = Invoke-WebRequest -UseBasicParsing -Uri $oUri

if($oHttpContent.StatusCode -eq 200) {
$oHttpContent.Images | Where-Object -Property 'ID' -EQ 'imgZoom' | ForEach-Object -Process {
$sOutFile = Join-Path -Path $sPath2SaveFiles -ChildPath (Split-Path -Path $(([System.Uri]$_.src).LocalPath) -Leaf)

Write-Host $sOutFile -ForegroundColor Cyan
Write-Host ''

Invoke-WebRequest -UseBasicParsing -Uri $(([System.Uri]$_.src).AbsoluteUri) -OutFile $sOutFile
}
$oLinks2NextPage = $oHttpContent.Links | Where-Object -Property 'class' -EQ 'arrow-next'

if($oLinks2NextPage.Count -eq 2) {
$oUri = New-Object -TypeName 'System.Uri' -ArgumentList $oSite, $oLinks2NextPage[0].href
} else {
break
}
} else {
Write-Host "Can't get $($oUri.AbsoluteUri), status code: $($oHttpContent.StatusCode)" -ForegroundColor Red
break
}
} While ($oLinks2NextPage.Count -eq 2)

Write-Host "Thats all" -ForegroundColor Green
} else {
Write-Host "Can't find destination path [$sPath2SaveFiles]." -ForegroundColor Red
}


А не проще ли скачать все это на другом сайте, все и сразу? »
sergey_dsv, «скачать все это на другом сайте, все и сразу» может быть и проще. Но что делать, когда «все это» есть только на определённом сайте, а вот на любом другом нету?! ;)

sergey_dsv
11-09-2017, 06:14
Но что делать, когда «все это» есть только на определённом сайте, а вот на любом другом нету?! »
Возможно и так. Но в данном случае мой вариант намного проще.

dretew
11-09-2017, 09:23
Но в данном случае мой вариант намного проще.

Книги этой больше и нет нигде.
Автор везде права свои качает...
Есть ещё на docme.ru, но только просмотр.
Мб можно скачать все картинки с самих страниц, а не адресов пикч?
Есть же всякие сервисы типа скачать все картинки со страницы.
Вот так бы выкачать все изображения с диапазона /page-4 - /page-223, а там я отделю, это не проблема.
Только чем выкачать?

freese
11-09-2017, 09:37
dretew, Teleport Pro, Offline Explorer, но они платные

Iska
11-09-2017, 09:43
Мб можно скачать все картинки с самих страниц »
Именно это и делает:https://i.imgur.com/CH01cJA.pngвыложенный выше код.

https://i.imgur.com/kpKPtsh.png

https://i.imgur.com/N7J5DzA.png

sergey_dsv
11-09-2017, 11:35
Книги этой больше и нет нигде. »
Как это нет.
А я простите как ее нашел и скачал для вас?

dretew
11-09-2017, 13:45
Книги этой больше и нет нигде. »
Как это нет.
А я простите как ее нашел и скачал для вас?
Только увидел, спасибо;) Где скачали, если не секрет?

sergey_dsv
11-09-2017, 16:30
Где скачали, если не секрет? »
https://vk.com




© OSzone.net 2001-2012