Zrobiony robot pobierajacy informacje o pdf.

This commit is contained in:
Jan Nowak 2021-04-06 20:54:18 +02:00
parent 3d2acc4df8
commit 06300a987c
3 changed files with 40 additions and 13 deletions

View File

@ -12,28 +12,36 @@ import Text.Regex.Posix
import Text.Printf
extractRecords = extractLinksWithText "//a[@class='roczniki']" -- pary adres-tytuł
-- >>> second (arr $ replace "\r\n " " ") -- czyścimy drugi element pary, czyli tytuł z niepotrzebnych białych znaków
extractRecords = extractLinksWithText "(//a[@class='magazine-list__year-item'])[last()]" -- pary adres-tytuł
>>> second (arr $ replace "\r\n " "") -- czyścimy drugi element pary, czyli tytuł z niepotrzebnych białych znaków
>>> second (arr $ replace " " "") -- czyścimy drugi element pary, czyli tytuł z niepotrzebnych białych znaków
-- >>> first (arr ((++"tr") . init)) -- modyfikujemy pierwszy element pary, czyli adres URL
-- >>> first (extractLinksWithText "//li/a[contains(@href,'.pdf')]") -- pobieramy stronę z adresu URL i wyciągamy linki z tej strony pasujące do wyrażenia XPathowego
>>> first (extractLinksWithText "//div[@class='magazine-list__item']/a") -- pobieramy stronę z adresu URL i wyciągamy linki z tej strony pasujące do wyrażenia XPathowego
>>> first (second (arr $ replace "\r\n " ""))
>>> first (first (
extractLinksWithText "//div[@class='files__item']/a[contains(@href,'.pdf')]"
>>> second (arr $ replace "\r\n " "")
>>> first (arr $ replace "//" "/")
)
) -- pobieramy stronę z adresu URL i wyciągamy linki z tej strony pasujące do wyrażenia XPathowego
-- ostatecznie wyjdą trójki ((adres URL, tytuł artykułu), tytuł rocznika)
-- ... a tutaj te trójki przerabiamy do docelowej struktury ShadowItem
toShadowItem :: ((String, String), String) -> ShadowItem
toShadowItem ((url, articleTitle), yearlyTitle) =
toShadowItem :: (((String, String), String), String) -> ShadowItem
toShadowItem (((url, chapterTitle), articleTitle), yearlyTitle) =
(defaultShadowItem url title) {
originalDate = Just date,
itype = "periodical",
format = Just "pdf",
finalUrl = url
}
where title = "Almanach Muszyny " ++ yearlyTitle ++ " " ++ (replace "\r\n" "" (replace "\r\n " "" articleTitle))
date = getDate url
where title = "Elektronika Praktyczna " ++ yearlyTitle ++ " " ++ articleTitle
date = yearlyTitle
getDate url =
case url =~~ "/(19[0-9][0-9]|20[0-9][0-9])/" :: Maybe [[String]] of
getDate yearlyTitle =
case yearlyTitle =~~ "/(19[0-9][0-9]|20[0-9][0-9])/" :: Maybe [[String]] of
Just [[_, year]] -> year
otherwise -> error $ "unexpected url: " ++ url
otherwise -> error $ "unexpected yearlyTitle: " ++ yearlyTitle
main = do
@ -43,4 +51,4 @@ main = do
abbrev="EP",
lLevel=0,
webpage=start}
extractItemsStartingFromUrl shadowLibrary start (extractRecords) -- >>> arr toShadowItem)
extractItemsStartingFromUrl shadowLibrary start (extractRecords >>> arr toShadowItem)

View File

@ -48,9 +48,9 @@ library
-- , shadow-library
-- default-language: Haskell2010
executable almanachmuszyny
executable elektronikapraktyczna
hs-source-dirs: app
main-is: almanachmuszyny.hs
main-is: elektronikapraktyczna.hs
ghc-options: -threaded -rtsopts -with-rtsopts=-N
build-depends: base
, hxt

19
stack.yaml.lock Normal file
View File

@ -0,0 +1,19 @@
# This file was autogenerated by Stack.
# You should not edit this file by hand.
# For more information, please see the documentation at:
# https://docs.haskellstack.org/en/stable/lock_files
packages:
- completed:
hackage: hxt-xpath-9.1.2.2@sha256:9cd590ae93a04573db8f90fa4094625ebd97dded45da7667c577ce6b38a42900,1999
pantry-tree:
size: 2225
sha256: aee2f75974e868ff429b8ff349a29667536c60397098f5dfedc968d1951511bb
original:
hackage: hxt-xpath-9.1.2.2
snapshots:
- completed:
size: 507596
url: https://raw.githubusercontent.com/commercialhaskell/stackage-snapshots/master/lts/11/9.yaml
sha256: 42f472dbf06482da1b3319241f3e3b3593a45bd7d4f537d2789f21386b9b2ad3
original: lts-11.9