{-# LANGUAGE Arrows, NoMonomorphismRestriction #-} import ShadowLibrary.Core import Text.XML.HXT.Core import Text.XML.HXT.XPath -- import Text.XML.HXT.Curl import Data.List import Data.List.Utils (replace) import Text.Regex.Posix import Text.Printf extractRecords = extractLinksWithText "//a[@class='title']" -- pary adres-tytuł >>> second (arr $ replace "\r\n " "")-- czyścimy drugi element pary, czyli tytuł z niepotrzebnych białych znaków >>> first (extractLinksWithText "//a[@class='obj_galley_link pdf']") -- pobieramy stronę z adresu URL i wyciągamy linki z tej strony pasujące do wyrażenia XPathowego -- ostatecznie wyjdą trójki ((adres URL, tytuł artykułu), tytuł rocznika) toShadowItem :: ((String, String), String) -> ShadowItem toShadowItem ((url, articleTitle), yearlyTitle) = (defaultShadowItem url title) { originalDate = Just yearlyTitle, itype = "periodical", format = Just "pdf", finalUrl = url } where title = yearlyTitle ++ " " ++ (replace "\r\n" "" (replace "\r\n " "" articleTitle)) date = getDate url getDate url = case url =~~ "/([0-9]+)/" :: Maybe [[String]] of Just [[_, year]] -> year otherwise -> error $ "unexpected url: " ++ url main = do let start = "https://etyka.uw.edu.pl/index.php/etyka/issue/archive" let start2 = "https://etyka.uw.edu.pl/index.php/etyka/issue/archive/2" let start3 = "https://etyka.uw.edu.pl/index.php/etyka/issue/archive/3" let shadowLibrary = ShadowLibrary {logoUrl=Nothing, lname="Tom", abbrev="AlmMusz", lLevel=0, webpage=start} extractItemsStartingFromUrl shadowLibrary start (extractRecords >>> arr toShadowItem) extractItemsStartingFromUrl shadowLibrary start2 (extractRecords >>> arr toShadowItem) extractItemsStartingFromUrl shadowLibrary start3 (extractRecords >>> arr toShadowItem)