Paywalls sind nervig. Paywalls sind aber für den einreichenden User auch unvorhersehbar. Einige Seiten setzen die Paywall nach einer gewissen Zeit. Andere Seiten nach einer gewissen Zahl an Abrufen. Andere tracken die User selbst und geben ihnen eine gewisse Zahl an Artikeln pro Monat. Die nächste Paywall ist geobasiert und greift nur für User in bestimmten Regionen oder Ländern. Andere Paywalls gelten nicht für User aus bestimmten Netzwerken. Die nächsten greifen auf Mobile, aber nicht auf dem Desktop, andere hoffen auf die angeblich höhere Zahlungsbereitschaft von Apple-Nutzern vs. Androiden.
Ob ein eingereichter Artikel jetzt bei euch eine Paywall hat oder nicht, ist für den Einreicher schlicht und einfach nicht einzuschätzen. Es bringt also nichts, wenn man “ARTIKEL HINTER PAYWALL DOOF” kommentiert.
Es gibt diverse Tools wie Archive.ph oder BypassPaywalls, mit denen man die Paywalls diverser Anbieter überwinden kann. Gleichzeitig gibt es aber auch gute Gründe, hier nicht überall einen entsprechenden Link zu posten oder gar den Artikel als Volltext. Das mögen Verlage nämlich selten und wir wollen der Fediverse Foundation ja keinen Ärger einhandeln.
Von daher: Wenn ein Artikel hinter einer Paywall ist, dann schaut selbst, ob ihr die knacken könnt. Oder gar, ob ihr ein Abo abschließen wollt, wenn die Seite regelmäßig interessante Artikel bringt.
Das gilt übrigens auch für das rumgemeckere über heise.de und andere Seiten mit “Datenklauwand”. Ist sicherlich nicht toll, wenn Verlage sowas erstellen, aber auch dagegen kann man mit einer guten Digitalhygiene geschützt sein. Und wer meckert, sollte irgendwie dann auch darlegen, welche Links hier überhaupt eingereicht werden sollen - denn irgendwie hat das gesamte deutsche Internet und alle Nachrichtenseiten halt Cookiebanner und wenn Leute dann Beiträge runterwählen wegen so einer Wand stellt sich mir wirklich die Frage, was hier denn überhaupt eingereicht werden soll aus deren Sicht.
Du wirst beim Aufruf von archive-Links wie archive.ph/N6rts oder archive.ph/zLfEx tatsächlich mit einer Roboterabfrage behelligt?
Also, bei mir (u.a. mir bekannten Systemen) erfolgt die Abfrage ausschließlich, wenn ich aktiv etwas archiviere - und auch dann nur sporadisch. Beim Anklicken eines Links wird bei mir immer direkt blitzschnell die archivierte Seite geöffnet.
Was ich thematisierte, war ja nicht das Speichern von Links, sondern das Zitieren und Aufrufen derselben. Die Fälle, in denen noch keine Archivierung durch andere erfolgt ist, sind doch eher selten.
Dass archiv.today sich davor schützen möchte, für automatisiertes Archivieren von Seiten genutzt zu werden, finde ich verständlich. Die Inkaufnahme einer gelegentlichen Captcha-Abfrage scheint mir daher überaus erträglich im Hinblick auf den hinzugewonnenen Nutzen für all jene Menschen, die im Anschluss von den frei verfügbaren Inhalten profiteren.
Ja.
Beim Aufruf via Bypass Paywall Clean fast immer, sonst seltener.
Ich habe auch keine Kritik am Captcha an sich, nur daran, dass es von Google kommt.
Bypass Paywall Clean nutze ich nicht. Dann verursacht das wohl die zusätzliche Barriere, ist natürlich doof. Hoffentlich werden Alternativen zu ReCaptcha künftig verbreiteter. Und ich möchte dann bitte auch endlich mal Tier- und Pflanzenfotos, statt immer diese nervigen Verkehrssituationen sehen.