Tag: android sensors

setRequestedOrientation,但仍然根据传感器而改变

我想在处理屏幕方向上模拟YouTubevideo查看行为。 用例: p1 。 当用户按最大化 – >活动总是进入风景 p2 。 当用户按最小化 – >活动总是进入纵向 p3 。 当用户旋转设备 – >屏幕方向应该相应地改变,即使之前应用p1或p2 。 目前我使用: @Override public void onClick(View view) { if (getResources().getConfiguration().orientation == ORIENTATION_PORTRAIT) { setRequestedOrientation(ActivityInfo.SCREEN_ORIENTATION_SENSOR_LANDSCAPE); } else { setRequestedOrientation(ActivityInfo.SCREEN_ORIENTATION_SENSOR_PORTRAIT); } 但是这会永久锁定方向,并且会失败。

训练Android应用使用机器学习识别传感器模式

我希望我的应用程序能够检测携带手机的用户何时下落,只使用加速计数据(因为它是所有智能手机上唯一可用的传感器)。 我首先试图实现一种算法来检测自由落体(加速度计的总加速度接近于零,接着是由于地面打击引起的高加速度,以及当用户刚刚在楼下快速走动时短暂静止以消除误报),但是有一个很多方法下降,而且对于我的算法实现,我总是可以找到一个情况下,没有检测到跌倒,或者在哪里跌倒被错误地检测到。 我认为机器学习可以帮助我解决这个问题,通过学习来自不同设备的很多传感器值,不同的采样率,什么是跌倒,什么不是。 Tensorflow似乎是我所需要的,因为它似乎可以在Android上运行,但是虽然我可以找到教程来使用它进行离线图像分类( 在这里例如 ),但我没有找到任何帮助,使模型学习模式来自运动传感器的值。 我试着学习如何使用入门页面使用Tensorflow,但未能,可能是因为我不太流利的Python,并没有机器学习的背景。 (我在Java和Kotlin上流利,并习惯于Android API)。 我正在从社区寻求帮助,帮助我使用Tensorflow(或机器学习中的其他东西)来训练我的应用程序,以识别跌倒和其他运动传感器模式。 提醒一下,Android会以随机速率报告运动传感器值,但会为每个传感器事件提供纳秒级时间戳,可用于推断自上次传感器事件以来流逝的时间,并将传感器读数作为浮点数提供对于每个轴(x,y,z)都是32位)。