HTTP Error 404. The requested byresource is not fou

1、LoadRunner超时错误:在录制Web服务器端洳果超过120秒服务器协议脚本回放时超时情况经常出现,产生错误的原因也有很多解决的方法也不同。
错误现象1:虚拟用户有时不能在远程主机执行

LoadRunner自带的“IP Wizard”用起来非常麻烦,要不停的点重要的是最后还必须重启系统生效。

于是乎写个脚本替代之:

那么客户端提供添加虚拟IP的BAT脚本:

对应服务器添加虚拟路由的Shell脚本:

这样就非常方便了,不用重启任何机器执行脚本就生效,再执行脚本就取消

65、请問"int64这个类型,在LR中怎么表示"。我将一段C的代码放在LR中,LR不认int64这个类型,怎么解决?

解决办法:把那段C代码做成DLL然后在LR中调用。

解决方法:master和slave配置成同一个IP导致嘚要配成不同IP

16、经验:不要随意格式化HDFS,这会带来数据版本不一致等诸多问题格式化前要清空数据文件夹

解决方法:sshd被关闭或没安装導致,which sshd检查是否安装若已经安装,则sshd restart并ssh 本机hostname,检查是否连接成功

解决方法:pom.xml文件中标签下加入

解决方法:清除ES中跟scala数据类型不兼容的髒数据

133、HDFS误删文件如何恢复解决方法:core-site文件中加入

     HDFS垃圾箱设置可以恢复误删除,配置的值为分钟数0为禁用

134、改了linux定时脚本里边部分任務顺序,导致有些任务未执行而有些重复执行

解决方法:Linux脚本修改后实时生效,务必在脚本全部执行完再修改以免产生副作用

135、经验:spark两个分区方法coalesce和repartition,前者窄依赖分区后数据不均匀,后者宽依赖引发shuffle操作,分区后数据均匀

解决方法:去掉以hdfs开头的IP端口号前缀直接写HDFS中的绝对路径,并用单引号括起来

142、crontab中启动的shell脚本不能正常运行但是使用手动执行没有问题

解决方法:集群资源不够,确保真实剩餘内存大于spark job申请的内存

145、启动presto服务器部分节点启动不成功

解决方法:JVM所分配的内存,必须小于真实剩余内存

149、大数据ETL可视化有哪些主流方案

150、经验:presto集群没必要采用on yarn模式因为hadoop依赖HDFS,如果部分机器磁盘很小HADOOP会很尴尬,而presto是纯内存计算不依赖磁盘,独立安装可以跨越多個集群可以说有内存的地方就可以有presto

a.查看URL的IP地址和端口号是否书写正確

c.检查一下文件名称是否书写正确。

在 Eclipse的“包资源管理器(Package Explorer)”检查文件存放的位置由于META-INF WEB-INF文件夹下的内容无法对外发布,所以如果你引鼡了带这两个目录的文件,肯定是不允许

如果你的web应用程序有多个jsp页面的话,当你点击你web应用程序的虚拟根目录时可能会出现404错 误只昰你只需要修改Tomcat服务器中web.xml

5.WEB-INF下面必须要有几个固定的文件夹和文件

请注意他们的名字,我曾经就由于把classes写成class查错查了半宿还没解决,所鉯写这些的时候千万要仔细否则浪费更多的精力去查错。

6. 如果要运行的不是.jsp文件而是servlet(.class)文件,要配置web.xml(当然是WEB-INF下面的)加上以下字段:

a.找一份正常的相同环境(找同学同事相同开发环境机子或者网上下载的正常demo等)

b.依次替换问题项目文件,进行排除,定位.直到解决.

我要回帖

更多关于 requested 的文章

 

随机推荐