kibermusik Опубликовано 23 сентября, 2007 Поделиться Опубликовано 23 сентября, 2007 Посоветуйте пожалуйста программу файлаДокачки, никогда не нуждался в этом, но с теперешними перебоями появилась вот такая необходимость.... Желательно если кто знает о таком то сразу краткую инструкцию по ней и прямую ссылку где ее можно скачать. Спасибо добавлено позже: имелось ввиду програмку с которой можно при обрыве связи потом этот же файл докачать или скачать Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
vipmustudio Опубликовано 23 сентября, 2007 Поделиться Опубликовано 23 сентября, 2007 http://uraldive.best-host.ru/kashalki.html FlashGet - качает мелкими пакетами в четыре потока... т.е. скорость возрастает в 4 раза... при обрыве связи начинает закачку с места обрыва... Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
vityusha Опубликовано 24 сентября, 2007 Поделиться Опубликовано 24 сентября, 2007 Сам пользовался несколько лет FlashGet'ом - только за него денег хотят а мне в последнее время лень краки искать. Тем более когда есть программы классом лучше и за бесплатно. Советую Free Download Manager http://www.freedownloadmanager.org/ Кроме всего прочего он умеет torrent'ы качать Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
kibermusik Опубликовано 28 сентября, 2007 Автор Поделиться Опубликовано 28 сентября, 2007 спасибо! Уже закачиваюсь Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
kibermusik Опубликовано 29 сентября, 2007 Автор Поделиться Опубликовано 29 сентября, 2007 сижу сейчас эксперементирую и той и той програмкой. Короче у FlashGet такая фишка: допустим набросал я ему там кучу файлов для скачки, он начинает качать их по очереди, т.е. допустим первые три файла в списке качает, а остальные находятся в режиме ожидания, и когда из первых трех скачиваемых какойто из них уже скачался - то следом который был в режиме ожидания включается и пошел процесс дальше, по цепочке, все как надо, в общем устраивает. А вот гляньте у програмки Free Download Manager как (см вложение), т.е. таким же образом накидал туда я файлы для скачивания, который с зеленой это понятно, он прям щас качает его, но остальные я "остановил", и самому последнему файлу дал команду "заплонированный". ВОПРОС: когда первый зелененький скачается по какой здесь дальше цепочке все пойдет? И пойдет ли это всё автоматически? или в начале запустится "запланированный" или запустятся вниз по списку Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
kibermusik Опубликовано 29 сентября, 2007 Автор Поделиться Опубликовано 29 сентября, 2007 опа, прям только что вот такая штука произошла, этот "запланированный" файл сам по себе запустился, даже не дождавшись когда первый скачается.......блин, чоза фигня )) Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
kibermusik Опубликовано 1 октября, 2007 Автор Поделиться Опубликовано 1 октября, 2007 вот это раздраражает уже больше Вроде прога Free Download Manager служит для докачки, а в целом свои функции не выполняет... во ацтой. Короче срочно мне комп надо было перезагрузить, перезагрузил, потом хотел продолжить докачку а он падла говорит что хрен, ну как вот так а? мляхамуха и смешно и одновременно нихера смешного нет )))))))) Вопщем помогите, че надо сделать чтобы в след.раз такого не было Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
plaser3 Опубликовано 1 октября, 2007 Поделиться Опубликовано 1 октября, 2007 Бля меня прет неподетски но попробую кибер тебе посмочь Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
plaser3 Опубликовано 1 октября, 2007 Поделиться Опубликовано 1 октября, 2007 Во первых объясни мене это что вообще такое Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
bogan Опубликовано 1 октября, 2007 Поделиться Опубликовано 1 октября, 2007 вот это раздраражает уже большеВроде прога Free Download Manager служит для докачки, а в целом свои функции не выполняет... во ацтой. Короче срочно мне комп надо было перезагрузить, перезагрузил, потом хотел продолжить докачку а он падла говорит что хрен, ну как вот так а? мляхамуха и смешно и одновременно нихера смешного нет )))))))) Вопщем помогите, че надо сделать чтобы в след.раз такого не было Нужно настроить его на загрузку вместе с Виндой, навреное Пользуюсь уже года два вотэтим менеджером, он полностью Free, интегрируется не тока с эксплоиром, но и с Оперой, которую использую. а также с другими браузерами, ваще никаких проблем. Посмотри тут, почитай и если понравиться - загрузи http://www.westbyte.com/dm/?source=dm1 ЗЫ. Его к слову можна использовать еще и для закачек с ФТП Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
plaser3 Опубликовано 1 октября, 2007 Поделиться Опубликовано 1 октября, 2007 USDownloader вот такой шнягой я качаю, качает со всяких там рапид, депозидов, ифолдеров и прочих файлобменников просто добавляешь ссылку. А и еще я качаю этим вот ReGet Deluxe вроде нормально качает даже если компутер выключишь или перегрузишь. Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
kibermusik Опубликовано 1 октября, 2007 Автор Поделиться Опубликовано 1 октября, 2007 Нужно настроить его на загрузку вместе с Виндой, навреноеПользуюсь уже года два вотэтим менеджером, он полностью Free, интегрируется не тока с эксплоиром, но и с Оперой, которую использую. а также с другими браузерами, ваще никаких проблем. Посмотри тут, почитай и если понравиться - загрузи http://www.westbyte.com/dm/?source=dm1 ЗЫ. Его к слову можна использовать еще и для закачек с ФТП о, зачотная прога, и на русс. языке. Проверил токашто, нормально после перезагрузки докачивает. Спасибо! Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
kibermusik Опубликовано 1 октября, 2007 Автор Поделиться Опубликовано 1 октября, 2007 USDownloader вот такой шнягой я качаю, качает со всяких там рапид, депозидов, ифолдеров и прочих файлобменников просто добавляешь ссылку. А и еще я качаю этим вот ReGet Deluxe вроде нормально качает даже если компутер выключишь или перегрузишь. мэн, а где этот крутой уэсд скачать? блин, а то предыдущая прога с рапиды не хочет качать.... Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
plaser3 Опубликовано 1 октября, 2007 Поделиться Опубликовано 1 октября, 2007 мэн, а где этот крутой уэсд скачать? блин, а то предыдущая прога с рапиды не хочет качать.... Кибер кроче вот сдесь http://soft-city.ru/category/soft/ все эти проги есть смотри внимательно листай странички там много всего путнего можно накопать. Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
kibermusik Опубликовано 2 октября, 2007 Автор Поделиться Опубликовано 2 октября, 2007 Кибер кроче вот сдесь http://soft-city.ru/category/soft/ все эти проги есть смотри внимательно листай странички там много всего путнего можно накопать. ага, накопал много, надеюсь подберу чего надо )) Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
The_Mutant Опубликовано 6 октября, 2007 Поделиться Опубликовано 6 октября, 2007 вот это раздраражает уже большеВроде прога Free Download Manager служит для докачки, а в целом свои функции не выполняет... во ацтой. Короче срочно мне комп надо было перезагрузить, перезагрузил, потом хотел продолжить докачку а он падла говорит что хрен, ну как вот так а? мляхамуха и смешно и одновременно нихера смешного нет )))))))) Вопщем помогите, че надо сделать чтобы в след.раз такого не было юзай бесплатную прогу DownloadMaster и не ипи моск Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
kibermusik Опубликовано 6 октября, 2007 Автор Поделиться Опубликовано 6 октября, 2007 юзай бесплатную прогу DownloadMaster и не ипи моск DownloadMaster уже юзаю, зачотный заказчик такой! я ему уже на целый месяц заданий надавал, так шо эта прога пока полностью устраивает, бесперебойно ))) Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
killy cramps Опубликовано 20 октября, 2007 Поделиться Опубликовано 20 октября, 2007 в личку мне кинь запрос со своим мылом, кину тебе малотребовательный софт Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
kibermusik Опубликовано 21 октября, 2007 Автор Поделиться Опубликовано 21 октября, 2007 killy cramps, скинул. Вот такая жопа частенькр случается: Коренной скачиваемый файл испарился! вот чорт пабери а! Помогите пожалуйста как быть то... Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
Vasik Опубликовано 23 октября, 2007 Поделиться Опубликовано 23 октября, 2007 wget -c URL Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
The_Mutant Опубликовано 23 октября, 2007 Поделиться Опубликовано 23 октября, 2007 killy cramps, скинул. Вот такая жопа частенькр случается: Коренной скачиваемый файл испарился! вот чорт пабери а! Помогите пожалуйста как быть то... это значит ссыла на файло поменялась, либо файла этого уже нет Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
kibermusik Опубликовано 24 октября, 2007 Автор Поделиться Опубликовано 24 октября, 2007 wget -c URL мая нипанимать... )) Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
kibermusik Опубликовано 24 октября, 2007 Автор Поделиться Опубликовано 24 октября, 2007 это значит ссыла на файло поменялась, либо файла этого уже нет кароче получилось продолжить докачку, но сцуко когда оставалось всего лишь докачать пару сотен метров - опять чето там шибануло.... нах... и с того сайта косяк тоже был, короче там кадры опять этот 2-х гиговый файл перезалили и качаю его заново... вомля А кто еще знает сайты, откуда можно бесплатно скачивать фильмы прямой ссылкой и без регистрации? а хотя насчет регистрации похер, можно и зарегистрироваться ))) пс: а этот файл обменник ЛИТЛБИТ ваще ацтой какойто... прога "DM" не может с нее скачивать а кароч пох Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
Vasik Опубликовано 28 октября, 2007 Поделиться Опубликовано 28 октября, 2007 мая нипанимать... )) Дык вроде про программу с докачкой спрашивали. wget - моя самая любимая, работате с командной строки: Y:\>wget --help GNU Wget 1.9.1, a non-interactive network retriever. Usage: wget [OPTION]... ... Mandatory arguments to long options are mandatory for short options too. Startup: -V, --version display the version of Wget and exit. -h, --help print this help. -b, --background go to background after startup. -e, --execute=COMMAND execute a `.wgetrc'-style command. Logging and input file: -o, --output-file=FILE log messages to FILE. -a, --append-output=FILE append messages to FILE. -d, --debug print debug output. -q, --quiet quiet (no output). -v, --verbose be verbose (this is the default). -nv, --non-verbose turn off verboseness, without being quiet. -i, --input-file=FILE download URLs found in FILE. -F, --force-html treat input file as HTML. -B, --base=URL prepends URL to relative links in -F -i file. Download: -t, --tries=NUMBER set number of retries to NUMBER (0 unlimits). --retry-connrefused retry even if connection is refused. -O --output-document=FILE write documents to FILE. -nc, --no-clobber don't clobber existing files or use .# suffixes. -c, --continue resume getting a partially-downloaded file. --progress=TYPE select progress gauge type. -N, --timestamping don't re-retrieve files unless newer than local. -S, --server-response print server response. --spider don't download anything. -T, --timeout=SECONDS set all timeout values to SECONDS. --dns-timeout=SECS set the DNS lookup timeout to SECS. --connect-timeout=SECS set the connect timeout to SECS. --read-timeout=SECS set the read timeout to SECS. -w, --wait=SECONDS wait SECONDS between retrievals. --waitretry=SECONDS wait 1...SECONDS between retries of a retrieval. --random-wait wait from 0...2*WAIT secs between retrievals. -Y, --proxy=on/off turn proxy on or off. -Q, --quota=NUMBER set retrieval quota to NUMBER. --bind-address=ADDRESS bind to ADDRESS (hostname or IP) on local host. --limit-rate=RATE limit download rate to RATE. --dns-cache=off disable caching DNS lookups. --restrict-file-names=OS restrict chars in file names to ones OS allows. Directories: -nd, --no-directories don't create directories. -x, --force-directories force creation of directories. -nH, --no-host-directories don't create host directories. -P, --directory-prefix=PREFIX save files to PREFIX/... --cut-dirs=NUMBER ignore NUMBER remote directory components. HTTP options: --http-user=USER set http user to USER. --http-passwd=PASS set http password to PASS. -C, --cache=on/off (dis)allow server-cached data (normally allowed). -E, --html-extension save all text/html documents with .html extension. --ignore-length ignore `Content-Length' header field. --header=STRING insert STRING among the headers. --proxy-user=USER set USER as proxy username. --proxy-passwd=PASS set PASS as proxy password. --referer=URL include `Referer: URL' header in HTTP request. -s, --save-headers save the HTTP headers to file. -U, --user-agent=AGENT identify as AGENT instead of Wget/VERSION. --no-http-keep-alive disable HTTP keep-alive (persistent connections). --cookies=off don't use cookies. --load-cookies=FILE load cookies from FILE before session. --save-cookies=FILE save cookies to FILE after session. --post-data=STRING use the POST method; send STRING as the data. --post-file=FILE use the POST method; send contents of FILE. HTTPS (SSL) options: --sslcertfile=FILE optional client certificate. --sslcertkey=KEYFILE optional keyfile for this certificate. --egd-file=FILE file name of the EGD socket. --sslcadir=DIR dir where hash list of CA's are stored. --sslcafile=FILE file with bundle of CA's --sslcerttype=0/1 Client-Cert type 0=PEM (default) / 1=ASN1 (DER) --sslcheckcert=0/1 Check the server cert agenst given CA --sslprotocol=0-3 choose SSL protocol; 0=automatic, 1=SSLv2 2=SSLv3 3=TLSv1 FTP options: -nr, --dont-remove-listing don't remove `.listing' files. -g, --glob=on/off turn file name globbing on or off. --passive-ftp use the "passive" transfer mode. --retr-symlinks when recursing, get linked-to files (not dirs). Recursive retrieval: -r, --recursive recursive download. -l, --level=NUMBER maximum recursion depth (inf or 0 for infinite). --delete-after delete files locally after downloading them. -k, --convert-links convert non-relative links to relative. -K, --backup-converted before converting file X, back up as X.orig. -m, --mirror shortcut option equivalent to -r -N -l inf -nr. -p, --page-requisites get all images, etc. needed to display HTML page. --strict-comments turn on strict (SGML) handling of HTML comments. Recursive accept/reject: -A, --accept=LIST comma-separated list of accepted extensions. -R, --reject=LIST comma-separated list of rejected extensions. -D, --domains=LIST comma-separated list of accepted domains. --exclude-domains=LIST comma-separated list of rejected domains. --follow-ftp follow FTP links from HTML documents. --follow-tags=LIST comma-separated list of followed HTML tags. -G, --ignore-tags=LIST comma-separated list of ignored HTML tags. -H, --span-hosts go to foreign hosts when recursive. -L, --relative follow relative links only. -I, --include-directories=LIST list of allowed directories. -X, --exclude-directories=LIST list of excluded directories. -np, --no-parent don't ascend to the parent directory. Mail bug reports and suggestions to . Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
plaser3 Опубликовано 28 октября, 2007 Поделиться Опубликовано 28 октября, 2007 Дык вроде про программу с докачкой спрашивали.wget - моя самая любимая, работате с командной строки: Y:\>wget --help GNU Wget 1.9.1, a non-interactive network retriever. Usage: wget [OPTION]... ... Mandatory arguments to long options are mandatory for short options too. Startup: -V, --version display the version of Wget and exit. -h, --help print this help. -b, --background go to background after startup. -e, --execute=COMMAND execute a `.wgetrc'-style command. Logging and input file: -o, --output-file=FILE log messages to FILE. -a, --append-output=FILE append messages to FILE. -d, --debug print debug output. -q, --quiet quiet (no output). -v, --verbose be verbose (this is the default). -nv, --non-verbose turn off verboseness, without being quiet. -i, --input-file=FILE download URLs found in FILE. -F, --force-html treat input file as HTML. -B, --base=URL prepends URL to relative links in -F -i file. Download: -t, --tries=NUMBER set number of retries to NUMBER (0 unlimits). --retry-connrefused retry even if connection is refused. -O --output-document=FILE write documents to FILE. -nc, --no-clobber don't clobber existing files or use .# suffixes. -c, --continue resume getting a partially-downloaded file. --progress=TYPE select progress gauge type. -N, --timestamping don't re-retrieve files unless newer than local. -S, --server-response print server response. --spider don't download anything. -T, --timeout=SECONDS set all timeout values to SECONDS. --dns-timeout=SECS set the DNS lookup timeout to SECS. --connect-timeout=SECS set the connect timeout to SECS. --read-timeout=SECS set the read timeout to SECS. -w, --wait=SECONDS wait SECONDS between retrievals. --waitretry=SECONDS wait 1...SECONDS between retries of a retrieval. --random-wait wait from 0...2*WAIT secs between retrievals. -Y, --proxy=on/off turn proxy on or off. -Q, --quota=NUMBER set retrieval quota to NUMBER. --bind-address=ADDRESS bind to ADDRESS (hostname or IP) on local host. --limit-rate=RATE limit download rate to RATE. --dns-cache=off disable caching DNS lookups. --restrict-file-names=OS restrict chars in file names to ones OS allows. Directories: -nd, --no-directories don't create directories. -x, --force-directories force creation of directories. -nH, --no-host-directories don't create host directories. -P, --directory-prefix=PREFIX save files to PREFIX/... --cut-dirs=NUMBER ignore NUMBER remote directory components. HTTP options: --http-user=USER set http user to USER. --http-passwd=PASS set http password to PASS. -C, --cache=on/off (dis)allow server-cached data (normally allowed). -E, --html-extension save all text/html documents with .html extension. --ignore-length ignore `Content-Length' header field. --header=STRING insert STRING among the headers. --proxy-user=USER set USER as proxy username. --proxy-passwd=PASS set PASS as proxy password. --referer=URL include `Referer: URL' header in HTTP request. -s, --save-headers save the HTTP headers to file. -U, --user-agent=AGENT identify as AGENT instead of Wget/VERSION. --no-http-keep-alive disable HTTP keep-alive (persistent connections). --cookies=off don't use cookies. --load-cookies=FILE load cookies from FILE before session. --save-cookies=FILE save cookies to FILE after session. --post-data=STRING use the POST method; send STRING as the data. --post-file=FILE use the POST method; send contents of FILE. HTTPS (SSL) options: --sslcertfile=FILE optional client certificate. --sslcertkey=KEYFILE optional keyfile for this certificate. --egd-file=FILE file name of the EGD socket. --sslcadir=DIR dir where hash list of CA's are stored. --sslcafile=FILE file with bundle of CA's --sslcerttype=0/1 Client-Cert type 0=PEM (default) / 1=ASN1 (DER) --sslcheckcert=0/1 Check the server cert agenst given CA --sslprotocol=0-3 choose SSL protocol; 0=automatic, 1=SSLv2 2=SSLv3 3=TLSv1 FTP options: -nr, --dont-remove-listing don't remove `.listing' files. -g, --glob=on/off turn file name globbing on or off. --passive-ftp use the "passive" transfer mode. --retr-symlinks when recursing, get linked-to files (not dirs). Recursive retrieval: -r, --recursive recursive download. -l, --level=NUMBER maximum recursion depth (inf or 0 for infinite). --delete-after delete files locally after downloading them. -k, --convert-links convert non-relative links to relative. -K, --backup-converted before converting file X, back up as X.orig. -m, --mirror shortcut option equivalent to -r -N -l inf -nr. -p, --page-requisites get all images, etc. needed to display HTML page. --strict-comments turn on strict (SGML) handling of HTML comments. Recursive accept/reject: -A, --accept=LIST comma-separated list of accepted extensions. -R, --reject=LIST comma-separated list of rejected extensions. -D, --domains=LIST comma-separated list of accepted domains. --exclude-domains=LIST comma-separated list of rejected domains. --follow-ftp follow FTP links from HTML documents. --follow-tags=LIST comma-separated list of followed HTML tags. -G, --ignore-tags=LIST comma-separated list of ignored HTML tags. -H, --span-hosts go to foreign hosts when recursive. -L, --relative follow relative links only. -I, --include-directories=LIST list of allowed directories. -X, --exclude-directories=LIST list of excluded directories. -np, --no-parent don't ascend to the parent directory. Mail bug reports and suggestions to . Это во сейчас что написал, издеваешься да. Цитата Ссылка на комментарий Поделиться на другие сайты Поделиться
Рекомендуемые сообщения
Присоединяйтесь к обсуждению
Вы можете написать сейчас и зарегистрироваться позже. Если у вас есть аккаунт, авторизуйтесь, чтобы опубликовать от имени своего аккаунта.