{-# LANGUAGE Arrows, NoMonomorphismRestriction #-} import ShadowLibrary.Core import Text.XML.HXT.Core import Text.XML.HXT.XPath -- import Text.XML.HXT.Curl import Data.List import Data.List.Utils (replace) import Text.Regex.Posix import Text.Printf extractRecords = extractLinksWithText "//a[@class='title']" -- pary adres-tytuł >>> second (arr $ replace "\n\t\t\t\t\t" "")-- czyścimy drugi element pary, czyli tytuł z niepotrzebnych białych znaków >>> first (extractLinksWithText "//a[@class='obj_galley_link pdf']") -- pobieramy stronę z adresu URL i wyciągamy linki z tej strony pasujące do wyrażenia XPathowego -- ostatecznie wyjdą trójki ((adres URL, tytuł artykułu), tytuł rocznika) -- ... a tutaj te trójki przerabiamy do docelowej struktury ShadowItem toShadowItem :: ((String, String), String) -> ShadowItem toShadowItem ((url, articleTitle), yearlyTitle) = (defaultShadowItem url title) { originalDate = Just date, itype = "periodical", format = Just "pdf", finalUrl = url } where title = replace "\n\t\t\t" "" yearlyTitle ++ " " ++ (replace "\n\n\t" "" (replace "\n\n\t\t\n\t" " " articleTitle)) date = getDate yearlyTitle getDate yearlyTitle = case yearlyTitle =~~ "(19[0-9][0-9]|20[0-9][0-9])" :: Maybe [[String]] of Just [[_, year]] -> year otherwise -> error $ "unexpected yearlyTitle " ++ yearlyTitle main = do let start = "https://etyka.uw.edu.pl/index.php/etyka/issue/archive" let start2 = "https://etyka.uw.edu.pl/index.php/etyka/issue/archive/2" let start3 = "https://etyka.uw.edu.pl/index.php/etyka/issue/archive/3" let shadowLibrary = ShadowLibrary {logoUrl=Nothing, lname="Tom", abbrev="AlmMusz", lLevel=0, webpage=start} extractItemsStartingFromUrl shadowLibrary start (extractRecords >>> arr toShadowItem) extractItemsStartingFromUrl shadowLibrary start2 (extractRecords >>> arr toShadowItem) extractItemsStartingFromUrl shadowLibrary start3 (extractRecords >>> arr toShadowItem)